上次我介紹了人工智能技術的危險,以及它的開發需要受到法律規範。本文是另一篇專家警告,由哈佛大學的Archon Fung教授與Lawrence Lessig教授撰寫,就是人可能會AI奪權破壞民主制度的問題。
競選機構會不會使用ChatGPT這類人工智能語言模型來誘導選民,來說服他們投某黨的票呢?
參議員Josh Hawley在今年5月16日的AI聽證會上,問了OpenAI公司首席執行官Sam Altman這個問題。Altman回答說,他確實擔心有些人可能會利用聊天機器人語言模型,來操縱、說服選民。人與機器進行一對一互動可能很有效。
Altman沒有做詳細說明,但他可能已經想像到這種情況:政治技術專家很快就會開發出一種AI政治機器,比方我們給它起名Clogger,能夠不懈地追求一個目標:最大限度地提高某候選人在選舉中獲勝的機會--而競選人可以購買Clogger的服務。
Facebook、Twitter和YouTube等等平台都使用AI算法,讓用戶在他們的網站上多花時間,而Clogger的AI目標不同,它要改變人們的投票行為。
研究政治和法律的Fung教授和Lessig教授特別留意技術與民主的交叉課題。他們相信,像Clogger這樣的東西可以用來搞行為操縱,自動地使用「微目標」技術,大規模增加21世紀以來這些技巧的有效利用,就好像廣告商現在利用你的互聯網瀏覽和社交媒體使用資料,來為你推送獨特的商業和政治廣告一樣,Clogger會根據你的特點來說服你。
與當前最先進的行為操縱算法相比,Clogger能夠提供三項優點。首先,它的語言模型會生成為您量身定制的消息--文字、社交媒體信息和電子郵件,可能還包括圖片和視頻。廣告商有策略地像你推送廣告相對比較少,而諸如ChatGPT這類的AI語言模型能夠在競選全過程中為您個人生成無數的獨特信息,也為幾百萬別人生成獨特信息。
其次,Clogger會使用一種叫作強化學習(reinforcement learning)的技術,來為你生成一系列信息,這些信息能夠越來越有效地改變您的投票意願。強化學習是一種機器學習、計算機利用繁複試驗得到反饋,來確定哪種途徑效果比較好,學習如何逐步實現目標。比如更好地下圍棋、國際象棋和許多視頻遊戲的機器學習,都使用了強化學習技術。
第三,在競選過程中,Clogger的信息可能會演變,以考慮您對它先前發送的信息響應,以及應用從改變他人想法過程學到的知識。隨著時間的推移,Clogger將能夠與很多其他人進行動態「對話」。Clogger像你發送的信息有些像那些在不同網站和社交媒體上跟踪你的廣告。
AI還有另外三個功能(或毛病)值得注意。首先,Clogger發給你的信息在內容上可以具有、也可以不具有政治性。如果這部AI機器的唯一目標是最大程度地擴大投某人票的機會,那麼它可能會設計出任何競選人都不會想到的策略,來實現這一目標。
比如一種可能性是向可能的反對派選民發送他們有興趣的非政治話題,體育或娛樂之類,將政治信息夾雜在其中。另一種可能性是在競選對手的信息旁邊同時發送令人反感的消息,例如小便失禁廣告。還有,AI可以操縱選民的社交媒體朋友圈,讓人覺得他們的社交圈都在支持某候選人。
其次,Clogger並不尊重事實。實際上它無法區分真假。如果它的目標是改變你的投票意願,那麼提供消息是否準確就不重要,使用「幻想」語言對這台AI機器來說也不成問題。
第三,由於它是一種黑盒式的人工智能,人們無從知道它使用了什麼策略。--這三項是AI的本質,也許你還不知道。
如果共和黨總統競選團隊要在2024年部署Clogger,那麼民主黨競選團隊可能要被迫用同樣的方式做出回應,使用類似的AI機器,比如取名Dogger。假如競選團隊的經理認為這些AI機器有效,那麼總統競選很可能會歸結為Clogger對Dogger,哪個AI機器比較有效,其客戶就勝選。
結果從某種重要意義上來說,候選人不因為他或她的政策建議或政治理念說服了更多的美國人而當選,乃因為他或她擁有比較有效的人工智能操作。贏得選舉勝利的內容將來自一個完全專注於取勝、並沒有自己政治思想的人工智能,而不是靠候選人或政黨--他們的發言、廣告、信息、理念來贏得選票。這樣的選舉還算是民主活動嗎?
然後,靠AI當選的總統會怎樣呢?有兩條道路他或她可以走。一條是靠AI來策劃和推行自己政黨的政策。但由於黨派理念可能與人們投票的原因無關--Clogger和Dogger 其實並不關心政策觀點——總統未必反映選民的意願,人工智能只是一味操縱成功,民眾對政治領導人和政策並沒有做出真正自由的選擇。
另一條路徑是總統追求機器預測的信息、行為和政策,以最大限度地提高連任的機會。在這條道路上,總統除了維持權力之外沒有特別的平台或議程計劃。由於Clogger擅長操控選民,AI最有可能繼續操縱,而不是為選民的真正利益,或為總統個人的意識形態理念服務。
如何能夠避免被AI操控呢?除非候選人、競選活動和顧問都放棄使用這種政治AI,選舉很難避免被AI操縱。專家認為放棄不太可能,開發出政治上有效的黑匣子,使用它們的誘惑幾乎無法抗拒。事實上,政治顧問很可能會根據對自己的職責要求來使用AI工具,以幫助候選人獲勝。而一旦使用了如此有效的工具,就很難指望對手會單方面繳械投降。
對自己的隱私加強保護對於防止受操控會有幫助。因為Clogger要依靠訪問大量的個人數據來鎖定個人,按照所掌握的數據來量身制做信息,以說服或操縱人,並在競選過程中跟踪和重新定位他們。每一點不讓技術公司或政策制定者的AI訪問的信息都會降低它影響你的效率。
另一個防止受操控的解決方案在於選舉事務委員會,他們可以嘗試禁止或嚴格監管這些AI機器。關於是否可以規範這種「複製的」政治言論,存在著激烈的辯論。美國的言論自由傳統很極端,導致許多領軍的學者表示不行。
但是,第一修正案對言論自由的保護不必自動擴展到這些AI機器產品。或許國家有一天會選擇賦予AI機器權利,但現今的條件下這個決定應該面臨挑戰,而不是錯誤地想當然。
歐盟的AI監管機構正在努力。他們的政策制定者修改了歐洲議會的人工智能法案的提案,將「在競選活動中影響選民的人工智能系統」定為「高風險」,必須接受監管審查。
歐洲互聯網監管機構和加州已經部分採用了一種從憲法上來說比較安全但比較小的步驟,禁止機器人冒充人。例如,當競選信息包含的內容是由機器生成、而非人的講話時,法規可以要求信息附帶一個免責聲明。
這就好像廣告的免責聲明要求--把「競選某職的某某支付」,修改成註明其AI來源:「本AI生成的廣告由競選某職的某某支付」。更強的版本還可以寫「本AI生成的信息由競選某職的某某發送給您,因為Clogger預測這樣做將使您投票給某某的機會增加0.0002%。」至少,專家們相信選民應該知道,什麼時候是AI機器人在和他們說話,也應該知道為什麼。
像Clogger這樣的AI系統是可能的,通往剝奪人類集體權力的道路也許不需要某些超人的AI。它可能只需要某些過分狂熱的活動分子和顧問,裝備強大的新工具,就可以有效地按下數百萬人的許多按鈕。
No comments:
Post a Comment