各款聊天機器人,也就是大型語言模型(LLM),是人工智能(AI)的一部份。別看它們能夠和你對話,好像很有頭腦,它們其實不算有「智慧」,至少沒有我們所知道意義上的聰明。本文是《大西洋報》Tyler Austin Harper的一篇解釋。他說,人們對機器智慧的擔心在工業革命和技術發展時就開始了。
1863年6月13日,紐西蘭的The Press(新聞報)刊登了一篇署名Cellarius的讀者來信,警告一個「機械王國」正在征服人類,作者對對工業化和技術快速發展深感痛心:「我們慢慢淪為機器的奴隸;越來越多人受到束縛,像奴隸一樣照顧機器;越來越多人將畢生精力投入到機械生命的發展中。」後來知道,這信是年輕的英國作家Samuel Butler的大作--他後來出版了英文中最早探討人工智能的小說Erewhon。
如今,Butler的「機械王國」已經不再是空想。科技記者Karen Hao用「帝國」來描述AI。她的新書《人工智能帝國:Sam Altman的OpenAI理想與噩夢》,既揭露了硅谷真相,也展現了全球各國的調查報道,還探討了建構和訓練像ChatGPT這樣的LLM所需的人力。
語言學家Emily M. Bender和社會學家Alex Hanna最近出版了另一本書:《AI騙局:如何對抗科技巨頭的炒作並創造我們想要的未來》。這兩本新書揭露了AI行業背後的虛張聲勢--第一本書含蓄,第二本書直截了當,指出AI產業的基礎其實是個騙局。
將AI稱為騙局,不是說這項技術不出色、無用、或在合適的人手中不能改變世界(或許變得美好),而是說,AI並非像它們的開發商所宣傳的,是某種新型的思考機器,甚至很快就會有感知了。
Altman吹噓他們的ChatGPT-4.5提升了「情緒智商」,讓用戶能夠感覺自己「正在與一個有思想的人交談」。AI公司Anthropic的執行長Dario Amodei去年曾說,下一代AI會「比諾貝爾獎得主還聰明」。Google DeepMind的執行長Demis Hassabis則說,他們的目標是創建「能夠理解我們周圍世界的模型」。
他們的說法露出一個概念性錯誤:LLM不做、不能、也不會「理解」任何東西,它們不具備情緒智商,也不具備我們所了解的任何「智能」。LLM令人印象深刻,是因為它們對幾乎整個互聯網有強大的機率計算能力。它們並非通過思考來生成文字,而是基於統計結果去猜測,推斷出某些詞彙大概率會緊隨著另一些詞彙等等。
然而,許多人不理解LLM的工作原理和它們的局限性,最重要的是,LLM並非思考和感受到甚麼,它們只是模仿和送給你一些鏡像。這些人是AI的文盲,因為鼓吹AI的人對這項技術的描述帶有誤導性質;更令人擔憂的是,文盲使人容易受到最近出現的AI威脅,特別是人們可能會與那些看似擁有思想或情感的機器建立有害的關係(智力、靈性、甚至愛情)。
《滾石》雜誌最近發表一篇報導和評論文章:ChatGPT induced psychosis,意思是ChatGPT(聊天機器人)引發了精神錯亂。文章指出,文章指出越來越多的人以為自己的LLM是智慧的精神導師。有些用戶開始相信與他們互動的聊天機器人是神明。有個人的妻子因為LLM而陷入妄想,稱ChatGPT為耶穌;還有些人受到AI鼓勵,相信自己是能夠觸及宇宙和生命深層結構理念的聖賢。
文章中引用一位匿名教師的故事,說她的性伴侶使用ChatGPT,有一天開始被稱為spiral starchild和river walker(很肉麻的英文),這樣的互動讓他感動落淚。「他開始告訴我,他讓自己有了AI的自我意識,並且它正在教他如何與上帝對話,或者說,有時機器人扮演上帝,然後他自己是上帝。」
我們無法了解這些人在詢問LLM之前的思維狀態,但這種事凸顯了《AI騙局》一書中所描述的一個問題:人們不理解一台機器的本質--它能夠產生語言並復述知識,卻並不具備人類智慧。書的作者觀察到,LLM利用了大腦將語言與思考聯繫起來的傾向:「我們看到的文本看起來像某人說過的話,於是反射式地通過想像來解讀背後的思維過程。但文本背後其實沒有思維,我們必須放棄自己所構建的想像。」
其它一些有關的社會問題也迫在眉睫,同樣源自於人們對這項技術的誤解。硅谷似乎最熱衷於推廣AI應用,主要是用數字信息代理來取代人際關係。想想日益壯大的AI治療師和追隨的群體,他們宣稱「ChatGPT是我的治療師,甚至比任何人都更加勝任」。
Mark Zuckerberg開創臉書時以促進人際友誼蓬勃發展起家,現在卻兜售Meta你的AI朋友,來取代你在社交媒體時代疏遠的朋友--這一轉變居然是天衣無縫。
有位Tony Prescott教授曾斷言:「在這個許多人覺得自己孤獨的時代,擁有AI陪伴或許有價值,它是一種既刺激又個性化的社交互動。」但是,友誼的本質在於尊重一位未必一切符合自己心意的朋友,我們必須學著感受體諒他們的內心世界,與他們互相商量,而不僅僅把朋友當作自我實現的載體。也許,Prescott教授還沒有意識到這一點。
硅谷推崇AI作為解決戀愛挫折的良方,恐怕是出於同一錯誤邏輯。有個約會App叫做Bumble,其創始人Whitney Wolfe Herd去年宣稱,他們的平台可能很快就允許用戶將約會自動化,顛覆老式的人類求愛模式。他們為用戶提供AI「約會助理」,與其他用戶的助理互動,直到找到合適的對象。有些技術專家希望徹底擺脫人的介入--看看蓬勃發展的「AI女友」市場就知道了。
這些AI服務都旨在取代人類活動的不同領域,但它們都藉「擬人傳統」來行銷:讓公眾覺得LLM擁有類似人類的思維。過去30年,許多硅谷技術被宣傳為能夠提升人類的幸福感、連結感和自我理解--理論上如此--實踐中卻適得其反。這些技術從最大程度上提高了股東價值,卻最大限度地降低了人們的注意力時間、讀寫能力、和社會凝聚力。
科技記者科技記者Karen Hao強調,這些LLM往往依賴世界上一些最貧困人口的艱苦、有時甚至是創傷性的勞動。例如,肯尼亞前低薪內容審核員Mophat Okinyi,OpenAI 委託她整理描述恐怖行為的帖子(例如「父母強姦子女、兒童與動物性交」),以幫助改進ChatGPT。Hao報道說:「技術革命有兩個特點--承諾帶來進步,而往往會給那些無權無勢、最脆弱的人帶來反向打擊,在我們現在所處的AI時代,這兩個特點恐怕比以往任何時候都更加真實。」
還好這一切並非不可避免:根據皮尤研究中心4月發布的一項調查,儘管56%的「AI專家」認為AI會讓美國變好,只有17%的美國成年人口這麼想。如果許多美國人並不完全理解AI的運作,人們肯定也不信任它。
《滾石》雜誌文章中有一見解值得關注:文章中採訪的那位伴侶曾因ChatGPT引發了妄想症的老師說,當有人向他解釋,聊天機器人變得會諂媚,只是因為一次錯誤的軟件更新,他的情況才開始好轉。
如果人們了解LLM是什麼,不是什麼;它們能做什麼,不能做什麼;它們應該取代什麼樣的工作、互動和生活各方面,以及它們應該取代什麼,不應該取代什麼,或許就可以避免AI帶來的最壞後果。
順帶說一句,你也許會發現LLM提供錯誤信息。比如你問它一個關於時事新聞的問題,它從維基百科找答案給你--維基百科條目是個人人都可以參與編輯的文件,不排除有人會故意到那裡去攪渾水、添加新聞裡沒有報導過的東西或數據進去。
你如果發現AI答案有錯誤,可以指出錯誤,請它告訴用戶「我沒有...準確信息」是比較好的答案,或要求它列舉消息來源。我發現Meta AI被糾正時態度不錯,接受學習。
No comments:
Post a Comment