特斯拉出事就抹黑,还其清白要一年!以及 SpaceX、人工智能 ...

至於文章中:

颇为讽刺的是,推特的“道德人工智能(Ethical AI)”团队,也在裁员中全军覆没,彼时距离马斯克接手推特只不过刚刚两个月。

~~~~~

諷刺個屁!寫文章的人沒大腦思考!?事實上,正因為推特在馬斯克接手前完全沒有發揮功能,放任輿論偏向民主黨(例如封鎖特朗普...),且封鎖提醒疫苗風險的少數專家等等,所以馬斯克一上台乾脆解散這群無用的垃圾!

解散得正確嗎?當然,沒屁用就該殺!道德,其實存在於人心、在於主事者,而不是在於沒用的團隊有沒有砍掉而已。福奇老婆佔的就是NIH倫理部門的頭頭,福奇胡搞疫情且強制全民疫苗,她老娘卻對先生嚴重違反醫學倫理的荒謬舉動毫無作為,留著又有何屁用?

這位說真話的醫師被馬斯克接管前的推特封殺了11個月。這一封殺,等於掩蓋真相,讓更多不明白的人乖乖捲起袖子去XX,現在躺病床上的一堆,死的就不知多少了。

AI (「人加工」的智能)真的會殺人!


 
如果AI不會殺人,馬斯克幹嘛聘請上千人去幫自動駕駛去除bugs?就是怕出人命。
 
比爾在2015年時是贊同馬斯克,承認AI危險。可現在嗅到商機,口氣卻變得不要命了!!!???
 
想想才兩三年前,一堆人搶著排隊去打,就怕落後了...一根不夠、兩根三根四根五根,我周遭幾位出現蕁麻疹、女兒免疫缺損、女醫師月經大出血、同學安裝心臟支架、甚至一位往生...都是XX愛用者。至於沒打的,則沒聽過任何人身體有因感染病毒而出現異常。

現在,似乎是再一次複製的場景...,從病毒換成AI,毒性呢則從搞壞身體換成葬送真相(是非不分)?
 
看過電影的就知道…


 
這幾天使用FSD 2022.45.12,進步不少,尤其是轉彎時的穩定性。但嚇人的地方也有。據說更新的修正版又出來了...。

自駕系統是這樣,進步兩步時也會退後一步,馬斯克說的,我同意。
 
謝謝土豆喔,加油時「又」開始增加碳稅…
 
AI是這樣,你要他做事,他得「先」要你的東西(技術、隱私、目的...),且未必會回答你。他可以裝不知道、裝不懂,卻已經把你珍貴的隱私等等啥的都拿走了。然後,也許下一秒,他因你的「啟發」而回過頭來用所有他會的手段冷血地打擊你控制你威脅你(個人、公司...)。

AI像醫師,你想治好病,得先和盤托出,讓他先一覽無遺。(治不治你、認不認真去治,卻是「後台」可決定的另一回事了。)
AI像導師,你想提高成績,他得先知道你「如何」學習及哪些不會。(事實上,他也同時在跟你學你會的,只是速度更快更厲害,更容易回過頭來讓另一群人搶佔你原本想提高成績後想要的「目的」。)

主動送上門去找AI,很像自動捲起袖子去排隊打針...後果未知。還是一句話,免費的最貴!幾十年前微軟故意讓人使用免費的盜版(不嚴查追究),就是為了讓我們用到離不開這系統(包括文書)而上癮,之後,等他坐大,回過頭來一一收割...。
 
最后编辑:
剛剛聽完這個:




感覺如下:

也許會有人工智能專家會願意去審視我最喜愛的哲學家Ludwig Wittgenstein的哲學觀。當然,也或許早有人在做,我沒去google,所以不知。但越是使用ChatGPT,我越有一種強烈的感覺,感覺專家會從 Wittgenstein 的文字(語言分析、邏輯,數學...)抽取非常多的觸發,尤其ChatGPT似乎(我有限理解)是語言(文字)邏輯(模型)為基礎、複雜的神經網路產物。

維根斯坦說邏輯就像個鐵軌,如果你要走在上面,那你就毫無選擇,必須乖乖地沿著鐵軌走。但他也說:沒有東西能強迫我們一定要走在鐵軌上。

維根斯坦也說:這傳說聽起就好像是說人可以在半空中走路似的,簡直是騙小孩,不過,誠實的人卻都相信它是有可能的。(An honest religious thinker is like a tightrope walker. He almost looks as though he were walking on nothing but air. His support is the slenderest imaginable. And yet it really is possible to walk on it.)

維根斯坦曾畫了一隻奇怪的動物,同一個圖案,有時看是一隻鴨頭,有時看卻是一隻兔頭 (可惜我不會用電腦把它畫出來,不知道有沒有電腦高手會畫,在Philosophical Investigations, p. 194),但只有鴨兔兩種選擇,沒有「中間」路線,沒有「修正」的問題。要不,是看做鴨,要不就是看到一隻兔子。同一個圖案,什麼都沒變,但是,「看」法變了,它也就「整個」變了。

「看」的方式若不一樣,裏頭細節即使有表面上的相似性,意義也就全然不同。我不知道這種根本上的「看」法有沒有可能改變,或者大家就這樣過了一生,但是,很顯然,「看」的方式不同,也就意味著世界長得不一樣。

看到這,難道沒人想到這不正是特斯拉視覺自動駕駛想要解決偶爾出現幻影煞車(錯將X判斷成Y之類)的問題?

維根斯坦曾說過, 他覺得他的神經系統和別人的連在一起。對我來說, 這就像一種「菩薩心腸」, 對許多精神科醫師來說, 卻覺得那聽起來像是一種「症狀」。

這部分,也或許是馬斯克想說的,AI需要受控制。受啥控制?起碼是加上一套「道德」模型。這,不也是特斯拉FSD正在解決不發生車禍的話該解決的所謂~安全控制(修改bugs類的)?

越想到維根斯坦,越覺得這傢伙是早生的天才。他具有善良柔弱的一副好心腸, 以及某種詩人式的憂鬱情懷。

不過,我也知道這些人工智能界的天才不會有時間去認識維根斯坦的,他們哪會有這時間,呵呵。總之,從Sam Altman訪談的眼神中我很確定,他自信滿滿,無知無畏無懼,認真地用「測試」及「新版本」的方式將人類推向未知的明天。


以下這文章作者是高手!言之有物,且居然認識維根斯坦的哲學!!!!

微软中国CTO韦青:ChatGPT背后,暴露的全是人的问题
微软中国CTO韦青:ChatGPT背后,暴露的全是人的问题
 
多模型的神經網路大放異彩!以我有限理解,單一模型的心理計量(psychometric)這門學問(專指後面的那一套假設)早可以消失了

 
最后编辑:
為什麼要做這徒勞無功的事呢? 為啥要在版上貼這些幾乎沒人在乎的東西呢?無言以對之餘,我腦海裏經常反覆想起一段可能是泰戈爾的故事吧:一位爸爸處理完了太太的喪事,返回家中,小兒子從窗戶裏,看見爸爸遠遠地走來,高興地趕緊跑出屋外,迎上前去,爸爸一把抱起,坐在肩上,不懂人事的小兒子問:「媽媽呢?」爸爸往天上指了一指,小兒子抬頭一看,哇! 好漂亮的滿天繁星。星星像點點熱淚一般,高掛在黑暗的天空。
 
后退
顶部