Home Artists Posts Import Register

Content

日前和資訊科技學者廖詩颺博士做了一個關於人工智能的訪問,不日會分享。入面提及一個警世觀點,值得先分享一下。

當AI急速發展,有一些國家(例如中國)用來監控人民,早就不是新聞。那些信用評級,將每一個人的每一個行為、背景都評分,然後機械性地定義「壞人」,然後將他們送進「再教育營」,已經「行之有效」。如果可以送進再教育營,對他們做任何行動,例如希特拉那樣針對單一種族的大屠殺,同樣是舉手之勞。

事實上,如果納粹擁有人工智能,歐洲的猶太人可能已經滅絕。

另一方面,無人機的技術,也已經高度武器化。一架小型無人機,可以定位襲擊任何人,定位可以聚焦在那個人的生物特徵;而甚麼人值得襲擊,也可以根據上述「社會評級」資料評估。如果同時發放幾百萬架最小型迷你無人機,撞向所有目標人物的頭顱,技術上也已經可行。

有一些警世微電影(甚至已經不是科幻),都已經以戲劇性方式探討這些可能性。例如如果某國有一個瘋狂政黨上台,認為國內「左膠」或「本土派」是國家積弱根源,政府絕對有能力根據自己的公式,通過社交媒體、言論思想等等,研判誰是「左膠」/「本土派」,然後按一個鍵,就將他們全體殺死。這比 Thanos 的手套更 effective,因為前者滅絕一般人是隨機的、random 的、「平等」的,無差別狀況有如核武;後者卻是「以結果為目標」的,更精準,更針對性。

同一道理,中國政府要是真的決心滅絕新疆不願意漢化的維吾爾人,或在「新香港」令剩下來的異見人士消失,也都是一鍵之勞。

既然核武最終在冷戰時代,急速發展也被兩個超級大國暫緩下來,構成「恐怖均勢」,同樣也是「恐怖和平」,那AI武器有可能被同一套路監管嗎?

這卻肯定比監管核武更難。

中國、俄羅斯、伊朗、北韓這類「邪惡軸心」國家,一直認為只要自己研發AI比對手進一步,就可以徹底摧毀對手,而又不用承受核戰這種「攬炒」風險。畢竟AI戰爭由資訊戰開始,人類或許會覺得為了避免世界末日而制約不使用核武,但不會基於同類原因,不使用AI「資訊武器」。但只要不斷研發AI資訊武器,同時,自然就是研發了可以集體殺人的AI武器。也就是技術的完善肯定出現,問題就是最後使用的可能性。

和核武不同,使用上述AI武器的誘因,可以是很出師有名的。

例如在加沙戰爭,以色列處於輿論劣勢,因為製造了大量平民死傷;但如果以軍有辦法單獨打擊哈瑪斯核心人物,減少平民傷亡,可能就已經是另一回事。那如果以軍已經研發出AI武器,只消滅它定義的「哈瑪斯活躍份子」,那就是足夠的誘因,比現在更有效率地達到目標,同時又可以減低被國際社會的道德譴責。但這一招一出,如果伊朗又研發AI武器,針對猶太人生物特徵為目標,潘朵拉的盒子一打開,就永無寧日。

在可見將來,由AI武器引發,比廣島、長崎核爆更恐怖的大悲劇,邏輯上,恐怕必然出現一次。

如果人類可以survive 那一次大悲劇,才可能認真達成限制AI武器的共識。如果那還不是太遲。

▶️ 《紐約時報》控告OpenAI,如何影響國際資訊平衡和人類未來?
https://www.youtube.com/watch?v=Ai9s1FYF3HA

Files

Comments

No comments found for this post.