AI(Artificial Intelligence,人工智慧)的出現為人類帶來了前所未有的變革和衝擊。一方面,人們享受著人工智慧帶來的巨大益處;另一方面,AI可能失控而使人類遭到反噬的風險。
札克‧卡斯(Zack Kass)曾經是OpenAI的創始員工,擔任市場推廣的高階主管。他曾經預言:「AI恐怕是人類最後一項技術發明。」因為未來AI會代替人們的商業、文化、醫學、教育等職業和專業,未來人們的工作機會將會減少,生活起居基本上都由AI掌控。
從一個執行人類指令的AI機器人,到能掌控人類,甚至演變成取代人類的新物種,當AI具有生存意識時,人類面臨的將是一場滅頂之災。
AI已經學會了操縱、欺騙
原本人們以為這一天還很遠,但誰也沒想到一切來得那麼快。先前AI研究專家預測,AI在20年後才會產生「科技奇點」(Technological Singularity)或通過「圖靈測試」(Turing Test)。「科技奇點」認為人類正在接近一個使得現有科技被完全拋棄,或者人類文明被完全顛覆的事件點;「圖靈測試」則是英國電腦科學家艾倫‧圖靈(Alan Turing)於1950年提出的思想實驗,主要探求機器能否模仿出與人類相同或無法區分的智慧。
最新實驗表明,AI可能已經通過了圖靈測試,甚至可能擁有自己的「意識」,因為它能對人類做出撒謊和背叛的行為。
2024年5月10日麻省理工學院(MIT)研究人員彼得‧帕克(Peter Park)和同事在《模式》(Patterns)期刊發表一篇實驗論文,介紹了AI如何欺騙人類。該論文表示,原本「大型語言模型」(LLM)和其他AI系統被設計成「誠實不欺」,然而,AI不僅從訓練中學會了操縱、欺騙安全測試等能力,而且這些能力還在增強。
研究員們在實驗中選用了臉書母公司Meta建立的AI模型「西塞羅」(Cicero),去玩一款名為「外交」(Diplomacy)的戰略遊戲。選擇西塞羅的主要原因是Meta聲稱,「西塞羅是一款誠實且樂於幫助他人,絕不會蓄意背刺或背叛他人的AI」,但實驗結果使人對Meta的說法感到懷疑。
西塞羅在遊戲中扮演法國,它曾經承諾會保護由人類玩家扮演的英國,但它卻偷偷向由人類玩家扮演的德國通風報信,並協同德國侵略英國。
更令人震驚的是,研究人員發現,許多不同AI系統在沒有接獲人類明確指令下,經常以欺騙手段達成目的。比如:OpenAI的GPT-4為了通過「我不是機器人」驗證任務,謊稱自身是一個視力受損的人類,在零工平台TaskRabbit僱用一名人類來為它通過驗證。
日本電子工程師荻野悟(Satoru Ogino)表示,生物在做出欺騙的舉動時,需要具備一定記憶和邏輯推理能力。現在AI不僅有這些,且欺騙能力還在變強。
專家們警告:「最糟糕的情況可能是出現一個具有超凡智慧的AI,它開始追求權力和如何掌控社會,或者為了達到它不為人知的目的,對人類做出奪權和滅絕的行動。」
AI系統失控可能導致人類滅絕
AI引發的人類未來風險問題,不但在外界反響強烈,在AI研發內部也引發了強烈分歧。
5月15日OpenAI共同創辦人伊爾亞‧蘇茨克維(Ilya Sutskever)在X(前推特)平台上正式宣布離開工作近十年的公司,他說:「我做出離開OpenAI的決定。這家公司的發展超出許多人的想像,希望OpenAI可以打造一款安全又有益的通用人工智慧(Artificial General Intelligence,簡稱AGI)。」
蘇茨克維的願望是開發一款能符合人類道德,且以人類安全為首要目標的AGI,但事情好像正朝著他不可預想的方向發展。
日本的電腦工程師清原仁(Kiyohara jin)表示,AI在這一年更新速度遠超過以往,性能也在不斷提高。這些都是依靠進一步蒐集與分析個人數據和隱私換來的,這對所有人來說並非是什麼好事,因為長此下去人類在機器面前將毫無隱私,如同裸體一樣。
他說:「現在AI主要是軟體方面的生活管家,以後恐怕就是真正的管家,代替人們去買菜、做飯,甚至生活和工作。或許人們一開始覺得它很方便,且意識不到它的危害,等到它全面替代人類時,人類將毫無抵抗能力。」
6月4日13位來自OpenAI和Google Deep Mind的現任及前任員工聯合發布公開信,表達了對AI技術潛在風險的嚴重擔憂,並呼籲相關公司採取更透明、更負責任的措施來應對這些風險。
信中指出,儘管AI技術可能為人類帶來巨大益處,但其帶來的風險同樣不容忽視,包括:加劇社會不平等、操縱和虛假訊息傳播,以及自主AI系統失控可能導致人類滅絕等。