Saturday, May 20, 2023

AI技術的危險及其規範化

人類發明了點火能夠取暖和燒煮食品,但若不能有效掌控,火就會造成很大威害。現在人工智能(AI)發明,我們再次發現必須掌控它的開發和使用。本文譯自Brookings研究院Darrell M. West院士的評論文章:Senate hearing highlights AI harms and need for tougher regulation

5月16日,參議院的司法小組委員會就隱私、技術和法律問題召開了聽證會。Open AI的首席執行官Sam Altman作證,說明了生成式AI的重要性和開發它的敏感性。ChatGPT與其他公司推出的類似工具一起,通過搜索、數據分析、視頻和音頻生成,為軟件開發等等領域帶來巨大的計算能力,實現了技術的大眾化。生成式AI能夠改變人們查找信息、生成新音頻和視頻、創造新產品、以及實時對新出現事件的反應方式。

但與此同時出現了一些問題,與消費、學術專業和政策制定有關。這些問題令人擔憂,包括有害內容、虛假信息、政治偏袒、種族偏見、缺乏透明度、勞工市場衝擊和知識產權盜竊。Altman的證詞、IBM副總裁Christina Montgomery和紐約大學教授Gary Marcus的證詞解釋生成式人工智能,讓立法者有機會表達他們對AI影響社會、經濟和選舉這件事的保留意見。



West博士回顧了參議院AI聽證會的主要內容,以及對這項新興技術的後續步驟。總的來說,人們對虛假信息、有偏見的決策、隱私侵犯和AI引起失業的風險達成了廣泛共識。大多數發言者相信這些問題非常嚴重,需要採取有效的行動。比較令人驚訝的是,在聯邦大多數對話都相當兩極化和黨派化的時候,兩黨都經常呼籲更嚴格的監管和更多地披露AI使用情況。大多數立法委員都同意,我們需要建立比較強大的護欄,來捍衛基本的人類價值觀,特別是在下面幾個方面:

警惕出現有害後果:隨著AI在許多領域變得越來越普遍,人們對AI生成有害內容和令人擔憂的後果達成了廣泛共識。生成式AI擁有複雜成熟的算法,以在線提示和模板形式為普通消費者提供答案,從而允許幾乎任何人創建和傳播虛假敘事。許多人預計2024年的選舉將出現虛假信息海嘯,因為勢均力敵的選舉會激勵許多人,去組織製作虛假的視頻和音頻,使不合事實的陷害和定罪變得容易。

有幾位參議員談到了偏見、隱私洩露、以及有些任務可以由AI取代完成,一些人可能失業的問題。目前,AI的運作方式、訓練它的數據、以及它如何做出決策都缺乏透明度。許多人擔心AI會助長大規模操縱,讓人朝著扭曲的方向去思考和行動。

小組委員會主席Richard Blumenthal擔心,「語音複製軟件」和反烏托邦混亂「不再是科幻小說的想像」。他最關心的是人們會利用虛假信息打擊別人、搞住房歧視、和搞深度仿真的視頻污陷。小組委員會高級成員Josh Hawley基於這些擔憂,抱怨「少數人的力量」掌控,強調在技術創新和道德責任之間取得平衡有必要。

制定更嚴格的披露規章:幾乎所有的立法者、外部發言人、行業領袖,都呼籲制定更嚴格的披露規章要求,這有些意外。Altman和其他證人說,我們應該提醒消費者,當生成式AI用於製作視頻和錄音帶,或構建其他類型的作品時,人們需要知道什麼是人類生成的,以及什麼來自算法。這可能會影響他們查看特定作品的方式。

獨立的監察:由於AI仍處於測試的早期階段,因此對模型結果進行外部監控非常重要。各種大型語言模型應該通過第三方進行測試,並將結果公佈。這會幫助人們了解AI的表現,以及哪些特定的應用程序可能有問題。紐約大學的Marcus注意到食品營養標籤的作用,說這類標籤可能對AI產品和服務有用。

降低AI風險的立法:IBM的Montgomery提出理由,一定要設立與風險監測有關的規章。針對不同的風險需要不同的規則,而高風險AI需要比低風險Apps有更嚴格的監督。涉及人身安全、生物醫學風險、或對特定人群造成傷害的案例需要更深入的分析、監測、測試和公眾審查。由於可能的後果可能相當可怕,因此需要對這些App進行更仔細的審查。

發放使用執照:由於有些活動非常危險,社會需要你得到許可證。駕駛汽車、打獵、捕魚或創業都屬於這類活動。聽證會上有些人詢問,發放AI許可證是否有助於減輕可能的危害,並加強技術提供商的問責制?好幾個參議員認為,只要這些規則不限制使用開源模型或限制小企業,要求申請許可證會有益處,特別是在高風險AI的應用上。

No comments:

Post a Comment