特斯拉出事就抹黑,还其清白要一年!以及 SpaceX、人工智能 ...

安全!炎熱夏天單獨留在特斯拉車子內的嬰兒不會被熱烤

 
特斯拉搞AI的自駕系統,接受國家監管,因為道路上一不小心隨時會要人命。自駕系統更新時非常謹慎,總是從極小規模的人開始,然後慢慢擴大可下載使用的人。

微軟的ChatGPT也是搞AI,卻完全不受任何機構監管,隨時可更新,隨時想怎用怎用。儘管馬斯克多年前就警告過多次,官方卻似乎完全不重視(在我看,那些政府都想要任其野蠻生長,讓人民更好控制煽動!)。

道路安全需要監管,思路安全卻完全不用。難道沒人在意此風險?
美国人崇尚言论自由,chatgpt是chat,言论的一种
 
剛剛聽完這個:




感覺如下:

也許會有人工智能專家會願意去審視我最喜愛的哲學家Ludwig Wittgenstein的哲學觀。當然,也或許早有人在做,我沒去google,所以不知。但越是使用ChatGPT,我越有一種強烈的感覺,感覺專家會從 Wittgenstein 的文字(語言分析、邏輯,數學...)抽取非常多的觸發,尤其ChatGPT似乎(我有限理解)是語言(文字)邏輯(模型)為基礎、複雜的神經網路產物。

維根斯坦說邏輯就像個鐵軌,如果你要走在上面,那你就毫無選擇,必須乖乖地沿著鐵軌走。但他也說:沒有東西能強迫我們一定要走在鐵軌上。

維根斯坦也說:這傳說聽起就好像是說人可以在半空中走路似的,簡直是騙小孩,不過,誠實的人卻都相信它是有可能的。(An honest religious thinker is like a tightrope walker. He almost looks as though he were walking on nothing but air. His support is the slenderest imaginable. And yet it really is possible to walk on it.)

維根斯坦曾畫了一隻奇怪的動物,同一個圖案,有時看是一隻鴨頭,有時看卻是一隻兔頭 (可惜我不會用電腦把它畫出來,不知道有沒有電腦高手會畫,在Philosophical Investigations, p. 194),但只有鴨兔兩種選擇,沒有「中間」路線,沒有「修正」的問題。要不,是看做鴨,要不就是看到一隻兔子。同一個圖案,什麼都沒變,但是,「看」法變了,它也就「整個」變了。

「看」的方式若不一樣,裏頭細節即使有表面上的相似性,意義也就全然不同。我不知道這種根本上的「看」法有沒有可能改變,或者大家就這樣過了一生,但是,很顯然,「看」的方式不同,也就意味著世界長得不一樣。

看到這,難道沒人想到這不正是特斯拉視覺自動駕駛想要解決偶爾出現幻影煞車(錯將X判斷成Y之類)的問題?

維根斯坦曾說過, 他覺得他的神經系統和別人的連在一起。對我來說, 這就像一種「菩薩心腸」, 對許多精神科醫師來說, 卻覺得那聽起來像是一種「症狀」。

這部分,也或許是馬斯克想說的,AI需要受控制。受啥控制?起碼是加上一套「道德」模型。這,不也是特斯拉FSD正在解決不發生車禍的話該解決的所謂~安全控制(修改bugs類的)?

越想到維根斯坦,越覺得這傢伙是早生的天才。他具有善良柔弱的一副好心腸, 以及某種詩人式的憂鬱情懷。

不過,我也知道這些人工智能界的天才不會有時間去認識維根斯坦的,他們哪會有這時間,呵呵。總之,從Sam Altman訪談的眼神中我很確定,他自信滿滿,無知無畏無懼,認真地用「測試」及「新版本」的方式將人類推向未知的明天。
 
剛剛聽完這個:




感覺如下:

也許會有人工智能專家會願意去審視我最喜愛的哲學家Ludwig Wittgenstein的哲學觀。當然,也或許早有人在做,我沒去google,所以不知。但越是使用ChatGPT,我越有一種強烈的感覺,感覺專家會從 Wittgenstein 的文字(語言分析、邏輯,數學...)抽取非常多的觸發,尤其ChatGPT似乎(我有限理解)是語言(文字)邏輯(模型)為基礎、複雜的神經網路產物。

維根斯坦說邏輯就像個鐵軌,如果你要走在上面,那你就毫無選擇,必須乖乖地沿著鐵軌走。但他也說:沒有東西能強迫我們一定要走在鐵軌上。

維根斯坦也說:這傳說聽起就好像是說人可以在半空中走路似的,簡直是騙小孩,不過,誠實的人卻都相信它是有可能的。(An honest religious thinker is like a tightrope walker. He almost looks as though he were walking on nothing but air. His support is the slenderest imaginable. And yet it really is possible to walk on it.)

維根斯坦曾畫了一隻奇怪的動物,同一個圖案,有時看是一隻鴨頭,有時看卻是一隻兔頭 (可惜我不會用電腦把它畫出來,不知道有沒有電腦高手會畫,在Philosophical Investigations, p. 194),但只有鴨兔兩種選擇,沒有「中間」路線,沒有「修正」的問題。要不,是看做鴨,要不就是看到一隻兔子。同一個圖案,什麼都沒變,但是,「看」法變了,它也就「整個」變了。

「看」的方式若不一樣,裏頭細節即使有表面上的相似性,意義也就全然不同。我不知道這種根本上的「看」法有沒有可能改變,或者大家就這樣過了一生,但是,很顯然,「看」的方式不同,也就意味著世界長得不一樣。

看到這,難道沒人想到這不正是特斯拉視覺自動駕駛想要解決偶爾出現幻影煞車(錯將X判斷成Y之類)的問題?

維根斯坦曾說過, 他覺得他的神經系統和別人的連在一起。對我來說, 這就像一種「菩薩心腸」, 對許多精神科醫師來說, 卻覺得那聽起來像是一種「症狀」。

這部分,也或許是馬斯克想說的,AI需要受控制。受啥控制?起碼是加上一套「道德」模型。這,不也是特斯拉FSD正在解決不發生車禍的話該解決的所謂~安全控制(修改bugs類的)?

越想到維根斯坦,越覺得這傢伙是早生的天才。他具有善良柔弱的一副好心腸, 以及某種詩人式的憂鬱情懷。

不過,我也知道這些人工智能界的天才不會有時間去認識維根斯坦的,他們哪會有這時間,呵呵。總之,從Sam Altman訪談的眼神中我很確定,他自信滿滿,無知無畏無懼,認真地用「測試」及「新版本」的方式將人類推向未知的明天。


訪談中Altman談了許多AI方向、業界、預測、技術細節等問題,也提到Noam Chomsky、應用啥的。但,若我來訪談Altman,一定會問他一個問題,且要他用5分鐘來仔細回答。

我會問:你屢次提到未來「更好」的xx(e.g., better version)。可否請你定義此次訪談我們都常提到的字眼「better」、「best」的完整意涵,不要描述人工智能、技術、及系統上的層面,而是你「自己」個人抱持的信念、價值觀及道德邊界(絕對會避開的)等~且舉具體案例。

我想看他回答時的表情。

在我看,這問題讓他闡述自己人生觀,看看他描述自己價值觀有哪些(主持人有問人生意義,但Altman答非所問)。這是我眼中最重要的問題。要我感覺,他現實生活或許會比較接近自信自大的 jerk(相對於謙虛、有禮,例如主持人Lex的風格),因為很多層面他的認知實在粗淺(常見於科技專業人士,包括醫師。馬斯克是罕見例外),例如對於consciousness的看法那一段,主持人的回答遠勝一籌(主持人聽到他許多回答後表情似乎是苦笑...)。主持人問的許多問題,他都是避重就輕,甚至反問回去。許多議題他明顯處於無知狀態,例如請他評價google, meta的AI、對於「truth」的看法等等,太多避重就輕及無知。還好主持人都沒追問下去,不然Altman可能會無知轉生氣。

但,至少他不裝,不像邪惡的臉書老闆及比爾蓋茲,Altman明顯開誠布公去談,他在這方面的純真可是強多了。

且他習慣插話,主持人還沒問完,他就急著插話(補充啥的),讓人覺得他輕蔑主持人的提問。
 
說投資,我有限眼界,就看到特斯拉、比亞迪、寧德時代這三雄。
舉例,2019 投資1塊錢在特斯拉,今日價值是8.29(媒體欺騙大眾,數字不會騙我)。

接下去,除去做空機構股價干擾及全球經濟環境外(例如美元貶值),我相信特斯拉有能力頂住逆風,且價值增長會更高更快,因:

拆解生產線,未來「協做」的生產模式(Mexico新作業平臺),在理想狀況下,根據我信得過的專家分析,有潛力達到8倍生產速度(當然,需要時間,但至少潛力在那)。註:傳統流水線生產模式沒有提升空間。
特斯拉的AI系統開始有能力微調機器手臂,趨向真正意義上的「機器製造機器」。
供應鏈早就是AI管理。決策速度超快,就是競爭力。
特斯拉的工廠就是精緻的產品
特斯拉生產的汽車模組多能在必要時單獨販售。例如 motor、電池、熱泵、自駕系統...
4680電池會配合cybertruck正式生產而逐步達到量產規模
動力系統開始朝向減少稀土比例,降本
4680電池剛剛又取得新的專利(這次是優化兩極設計)
(我隨便還寫個至少10條,且省省了)

中國已同意第一款汽車去除外部兩側後視鏡的原法規要求,同意以汽車內部螢幕取代。這趨勢,對電動車是利多,尤其特斯拉。例如即將生產的cybertruck已能夠在交車後讓車主自己決定去拆卸外部後視鏡(減少風阻、減少電力消耗,且維持同等操作安全),這眼界不容易,尤其放在與傳統油車一起比較時。

相信人之前,得先會識人。財富也可因「媒體欺騙」而輕易錯過...
 
最后编辑:
最終特斯拉會拋棄目前使用的谷歌地圖(一如他們拋棄NVIDIA芯片)...100%依靠自己累積的雲端數據去自動導航。這是必然結果。
 
果然是我認識的馬斯克!推特開源了!

 
在我看,以下馬斯克與奧特曼最大的爭執或許只是在於「道德該不該介入AI發展」的路線之爭而已,而不是媒體說的爭權奪利。

馬斯克此舉無疑是失敗的,因為沒錯,公開限制,私下這些發展者一樣會幹,只是化明為暗而已。馬斯克當然知道,所以剛也說了,至少我把該說的說出口了。

三體:「不要回答!不要回答!」

 
最后编辑:
在我看,以下馬斯克與奧特曼最大的爭執或許只是在於「道德該不該介入AI發展」的路線之爭而已,而不是媒體說的爭權奪利。

馬斯克此舉無疑是失敗的,因為沒錯,公開限制,私下這些發展者一樣會幹,只是化明為暗而已。馬斯克當然知道,所以剛也說了,至少我把該說的說出口了。

三體:「不要回答!不要回答!」



至於文章中:

颇为讽刺的是,推特的“道德人工智能(Ethical AI)”团队,也在裁员中全军覆没,彼时距离马斯克接手推特只不过刚刚两个月。

~~~~~

諷刺個屁!寫文章的人沒大腦思考!?事實上,正因為推特在馬斯克接手前完全沒有發揮功能,放任輿論偏向民主黨(例如封鎖特朗普...),且封鎖提醒疫苗風險的少數專家等等,所以馬斯克一上台乾脆解散這群無用的垃圾!

解散得正確嗎?當然,沒屁用就該殺!道德,其實存在於人心、在於主事者,而不是在於沒用的團隊有沒有砍掉而已。福奇老婆佔的就是NIH倫理部門的頭頭,福奇胡搞疫情且強制全民疫苗,她老娘卻對先生嚴重違反醫學倫理的荒謬舉動毫無作為,留著又有何屁用?
 
最后编辑:
果然是我認識的馬斯克!推特開源了!


1680305031089.png
 
英國工業革命時期有一句口號:機器取代人類後,人類就會有更多閒暇時間去做真正想做事情。

事實?當然沒有,工業革命後人類的生活更單調更緊張!

現在人工智能時代了,又開始聽到同樣的口號:AI發展之後,人類就會從工作中解放...。

誰在喊這些口號?當然又是想從AI 搞錢的創投大老。
 
據說ChatGPT吸收知識速度超快,一目萬行,且過目不忘。

可惜的是,如果他讀到糖商找哈佛醫師掛名在NEJM的文章寫出來的結論:「脂肪是心血管疾病的元兇」。那又會如何?

嗯!當未來ChatGPT掌控一切的是非與顛倒黑白,那麼,這傢伙要我們死,我們還真活不了。
 
后退
顶部