Sunday, July 28, 2024

胡扯的AI聊天回答

曾任CNET商務技術主編的Connie Guglielmo,現在是Red Ventures公司CNET的高級副總裁,專門搞人工智能(AI)編輯策略。她相信原始的事實報導很重要。上個月她看見一份雜誌(Ethics and Information Technology)上發表的研究論文:ChatGPT Is Bullshit,作者是Glasgow大學的三位講師,不免好奇,於是下載仔細閱讀,本文是她寫的介紹。

Guglielmo越讀就越同意文章關於「AI幻想」的說法--「AI幻想」是指那些AI生成的假話。因為AI聊天機器人的輸出方式是一種不準確的描述,它可能會誤導我們看待現在和未來的生成式AI。本文是她就此寫的介紹

論文作者首先提出一個值得注意的觀點:「因為這些程式本身無法關注哪些是事實真相,而它們的設計目的是生成看起來符合真相的文本,實際上未必符合真相,所以稱它們的輸出為bullshit似乎合適。我們認為這值得關注。」

三位論文作者7月17日在《科學美國人》發表一篇文章,解釋他們為甚麼要寫這篇論文--其中提到一個「匕首飄來的莎士比亞幻想」。他們說:「哲學家所說的bullshitter有個特殊含義,就是講者並沒有說真話,但也不是在編造謊言。」(我暫且把bullshit翻成胡扯。)

他們說AI「胡扯」有三個理由。首先,使用不準確的詞彙誤導公眾,人們卻不知道。其次,人們受到誤導後影響他們對待事務的方式,好比self-driving車輛會帶給人錯誤的安全感,AI「幻想」用人類心理學詞彙可能讓人把聊天機器人的電腦程序擬人化。

這就有了第三個理由,Guglielmo認為最重要:如果我們將程序看為自主,那麼出問題時,這可能會轉移責任--那些使用ChatGPT的人或程序設計員本來應該負責。論文的結論:將聊天機器人的不準確輸出描述為胡扯而不是幻想,可能會為當今圍繞生成式AI的炒作帶來一些亮光。

AI領域還有其它值得關注的事。Apple、Anthropic等AI開發公司未經允准而使用YouTube自動生成的語音/文字記錄,將幾十億字節的訊息輸入AI引擎作訓練數據,這可能會牽涉到版權訴訟問題。正如一位直播服務公司的總裁Wiskus所說,這是一種盜竊。

另外,Meta和蘋果公司還不敢將他們的AI聊天發布到歐洲,因為那裡有關於隱私和AI的規章制度。美國也正試圖建立一些規章,但迄今還差很遠。(有騙子使用AI生成的拜登總統聲音敦促選民不要參加初選,於是FCC禁止了深度偽造的機器人電話。)

一些硅谷投資人鼓吹競選總統的川普應允要減少AI規章制定,試圖抵擋或廢掉拜登政府積極建立和實行技術發展規章的努力。選民應該注意機器人無法無天的後果。

AI聊天機器人會散佈虛假信息,根據調查,10個最受歡迎的AI聊天機器人在美國各種政治事件發生後,有56.67%未能應付各種渠道(包括敵對國家)傳來的各種陰謀論,有的傳播已過時的錯誤消息。聯邦司法部關閉了一大批假冒美國境內用戶,或假冒有關政府機構的俄羅斯機器人帳戶,試圖改變美國民眾的選舉意向。

看來,至少有些政治話題你不要輕信AI機器人的回答。

No comments:

Post a Comment