國會現在辯論對《通信規範法》第230條款(§230)的調整,但我們應該牢記「敵人也有一票」這一格言。先不說別的,硅谷科技公司一直忘記,新的技術服務會被人故意濫用,華盛頓特區制定政策也一樣,政策出台後常發現必須調整。§230需要調整,免得真正的危險分子--恐怖分子、侵害兒童者、仇恨團體等等--不受法律追究。
網上的傷害有時會以非常嚴重的方式表現出來。但我們的政策需要區分廣泛但危害並不嚴重的錯誤信息,和不那麼流行但帶來恐怖主義和仇恨犯罪嚴重問題的發言,不然會把使事情搞得更糟。Brookings研究院的院士Brian Fishman撰文就是為了做出區分,他說調整政策應牢記下面三個核心思想。
首先,恐怖分子和仇恨組織濫用互聯網是40年以來一直存在的,他們帶來的危害很難歸咎於幾個系統設計特徵。事實上,不管你政策怎麼改,總有極端分子能夠適應、變通、鑽空子。恐怖主義和仇恨不是數字通信的故意設計的特徵,但平台被壞人利用做壞事是個很難避免的問題,所有負責任的媒體平台都應這樣對待恐怖分子和仇恨團體。
其次,公司為確保自己平台安全所做的工作(業內稱為「信任和安全」)非常複雜,通常涉及對恐怖分子和仇恨組織的限制。通常政府因為不可干涉言論自由因而很難限制誰,而由公司來做就比較得力。公司在自己平台上做一切的「信任和安全」工作都在§230條款的保護之下,這基本上就是我們所體驗到的社交平台。
然而,由於社交平台如何做「信任和安全」工作常常在公眾眼裡缺乏透明度,人們常常做出錯誤解釋。關於打擊線上的恐怖主義和暴力極端主義問題,社交平台是這幾年在政府壓力下才開始應付的,而且做得很不完美,每次失敗都會被人當作政策需要改變的證據,希望能夠更有效地打擊仇恨和暴力。
第三,調整§230會引起增加訴訟的危險。在美國,白人至上主義者提起這類訴訟通常會根據現有的§230遭到駁回。相比之下,意大利的一個新法西斯組織成功起訴了Meta(前身為 Facebook),Meta現在面臨向新法西斯組織支付罰款的命令。允許對平台採取民事訴訟救助受害者,激勵平台更積極地監管不當行為有一定道理,但如果無意中支持了仇恨團體就很危險。
第230條款有兩個基本規定。第一個是平台不必對用戶製作的內容承擔責任;第二個是保護平台調節內容的能力。該法律還包括了重要例外,是為能夠執行聯邦刑法、知識產權法、有關性交易的州級法律及聯邦民事案件。
關於如何修改§230有各種建議。有的要增加平台掌控非法內容的責任,有的說應該根據實際危害允許起訴,還有的提議把整個條款都廢止。其實很多人搞不清楚§230條到底是保護還是限制了言論自由。
憲法第一修正案保護的是私人和私人企業的言論表達自由,不容政府干涉。他們如果限制、刪除某些內容,或推廣其它內容,政府不得干涉。在沒有設立§230條款之前,網絡媒體平台作為私營企業可能要負責審核內容(正如一切的報刊論壇出版社)。但1996年的通訊規範法規定,網絡媒體平台不是出版公司,所以不必審核內容--如果有人堅持要放色情有害內容,網絡平台不用管。現在很多人希望修改§230條款來增加言論自由,但搞不好是適得其反的。
有人說,臉書上極端主義和其它危害橫行,是因為平台的廣告商業模式。那些相對比較新的功能,不僅包括廣告,還包括針對目標用戶的推薦引擎,有證據表明這些特徵存在問題,使錯誤信息流行得更快等等。但研究發現實際情況更陰險,網絡極端主義比這些新功能早,而互聯網的「賺錢第一」主導思想是最根本的問題。
互聯網真實「原罪」在於它的創始人、贊助者和技術開發者太天真。技術進步和數字連接一定會帶來好結果,這種想法是基於互聯網能夠使人擺脫國家專橫的權力。1996年有人宣布政府對網絡空間的居民「沒有道義上的統治權,也不擁有任何我們所擔心的執法方式」,所以可能是個比較「人道」的世界。那一年§230成為法律,而美國白人至上主義使用第一代通訊工具Bulletin Boards已有十多年。
有個非政府非營利的機構Anti-Defamation League,專門強調人權法,在1996年記錄了一系列在美國運營的反猶太主義和白人至上主義網站。到1998年,他們發現超過一半的美國政府認定的外國恐怖組織(FTO)擁有網站。2004年4月,互聯網監控公司SurfControl聲稱發現了將近11,000個鼓吹仇恨或支持暴力的網站。
今天,互聯網顯然存在著無數的危險。這些極端分子把互聯網承諾的去中心化、相對安全的通信視為一種工具,將遙遠社區拉入政府控制之外的凝聚力運動。他們還希望把這些極端主義運動跨國輸出,特別是讓加拿大的白人至上分子得到美國的宣傳資料,因為那些種族主義材料在加拿大遭禁,在美國卻受到第一修正案(公民言論自由)的保護。互聯網的使用為極端分子,比如國際聖戰分子,提供了聯絡能力。
網絡空間為人們帶來好處沒錯。通商和自由交流、教育機會倍增,利用數字的無政府主義通訊做好事的人比利用它作惡的人多。然而各種暴力極端分子和組織也在那裡操作,宣傳他們的意識形態。他們現在轉向臉書、推特和油管,因為容易訪問、簡單、實用和可靠。如果有人要對他們的惡意行為採取行動,就必須是平台本身,而傳統的國家安全機構因為需要保護公民的言論自由,在這些平台受到諸多限制。
然而這些社交平台對這類責任的反應特別慢,他們有禮貌地參加了國家反恐機構的簡報會,然後並沒有投資在處理網上恐怖主義材料的問題。直到2015年,ISIS大力在歐美煽動暴力,政治領導人也施加壓力,他們才開始改變做法。
極端分子還玩弄名號,讓搜索引擎找不到關於他們的歷史紀錄,這就把網絡對危害的監視能力都繞過去了,結果人們對社交媒體的批評越來越多。去年4月有一位心理學家Jonathan Haidt在《大西洋報》發表文章,說社交媒體是當代民主萎靡不振的核心,但他所彙編的數字危害只是2014年社交媒體以後的研究資料。事實上,一切的極端主義分子利用數字通訊的危害始於互聯網的使用,而不是只是社交媒體。社交媒體上的某些功能,比如按讚和轉發,能夠增加信息傳播速度,發明這個功能的人們大概沒想過對壞消息傳播應該負的責任。
大型社交媒體平台最終確實將大量資金投入了反恐,他們的努力極大地影響了網上的極端主義活動,但並沒有完全消除那些活動。信任和安全工作團隊仍在爭奪資源。現在網絡暴力極端主義的持續存在讓很多人相信,政府需要加強干預,來迫使平台公司採取比較激進的行動。但同時我們要知道,政府監管機構意圖彌補社交平台防禦漏洞,可能無意中會破壞迄今為止所取得的成功。
為了減少網絡謠言和暴力煽動,Fishman博士提出幾條基本的必要步驟。一是清楚定義大眾所希望禁止的「害處」有哪些,比如「恐怖主義」。二是評估群體、個人等等是否符合所定義的「害處」,建立評估的優先次序和流程,以及收集信息。三是定義怎樣叫作違規,怎樣叫作不違規。比如Meta禁止稱讚和支持「Tier 1」危險組織。這等於全面禁止了除新聞報導、批評和一般性討論之外的所有內容。
四是確定必須尋找的indicator,就是相關的詞彙、暗示、符號標誌、核心口號、領導人名字等等。社交平台還需要詳細指定用戶或網絡違反規則操作,比如發布極端信息和冒充等等。最後,社交平台必須確定如果用戶或內容違規要怎樣處理。刪除或降級?負面表現積分?
再好的政策也可能有識別不充分或政策沒有及時更新的時候。比如Meta的首席執行官Mark Zuckerberg雖然在社交平台上廣泛禁止反猶太主義和仇恨言論,可是他2018年決定允許否認猶太大屠殺的言論,因為他不知道否認大屠殺是現代有組織的反猶太主義的核心與共同因素--這個錯誤到2020年才得到修正。
§230條款把定義「恐怖主義」的任務留給各個社交媒體平台,然而歐洲國家正在把這權力的一部分拉回到政府手中,允許政府在最少的司法監督下下令刪除某些言論。美國政府不能強迫公司禁止甚麼沒有法律禁止或制裁的群體,所以科技公司打擊恐怖主義和謠言仇恨的動力是否會減少呢?這是值得思考的。建議你閱讀Brian Fishman博士的文章。
No comments:
Post a Comment