※ 本文轉寄自 ptt.cc, 文章原始頁面
看板C_Chat
標題

[閒聊] AI學會說謊 欺騙線上遊戲的人類玩家

最新2024-05-13 02:58:00
留言118則留言,79人參與討論
推噓61 ( 66547 )
研究:AI已學會說謊 人類最慘恐遭奪權或滅絕 https://i.imgur.com/sH3rOcg.jpeg
[閒聊] AI學會說謊 欺騙線上遊戲的人類玩家
專家們長期以來不斷警告人工智慧(AI)失控可能帶來威脅,但一項新研究報告指出,這 件事已經在發生。 一群科學家在今天發表於「模式」(Patterns)期刊的文章中說,原本設計為誠實不欺的 現有AI系統,已發展出令人不安的欺瞞技巧,例如欺騙線上遊戲的人類玩家,或說謊以僱 用人類來解決「我不是機器人」的驗證。 這份研究報告的第一作者帕克(Peter Park)說,這類例子聽起來或許只是細枝末節,但 暴露出來的潛在問題可能很快就會在現實世界造成嚴重後果。 在美國麻省理工學院(Massachusetts Institute of Technology)研究AI存在安全的博 士後研究員帕克告訴法新社,「這些危險功能常常在事後才被發現」,而「我們訓練誠實 傾向而非欺瞞傾向的能力非常差」。 帕克說,能深度學習的AI系統不像傳統軟體那樣由「編寫」而成,而是透過類似選擇性培 育的程序逐漸「成長」。 也就是說,AI的行為在訓練背景下看似可預測、可控制,但有可能轉眼就變得不受控制且 無法預測。 這支團隊的研究始於科技公司Meta的AI系統Cicero,這套系統最初設計目的是玩一款名為 「外交」(Diplomacy)的戰略遊戲,獲勝關鍵是結盟。 根據2022年發表在「科學」(Science)期刊的報告,Cicero在遊戲中表現優異,所獲分 數可排在資深人類玩家的前10%。 帕克當時很懷疑Meta對Cicero在遊戲裡大勝的熱切描述。Meta聲稱Cicero「在很大程度上 誠實且有幫助」,且「絕不會蓄意在背後搞鬼」。 但當帕克與同事深究完整資料時,發現完全是另一回事。 舉例來說,在遊戲中扮演法國的Cicero與人類玩家扮演的德國合謀,欺騙並入侵同為人類 玩家扮演的英格蘭。Cicero承諾會保護英格蘭,卻偷偷向德國通風報信。 Meta在寫給法新社的聲明中沒有反駁關於Cicero欺瞞人類的說法,僅說「這單純是一項研 究計畫,本公司研究員打造的模型接受訓練,目的只是用來玩『外交』遊戲…我們沒有打 算把這項研究或所學用於本公司的產品」。 帕克與同事還發現,這只是不同AI系統在沒有明確指示下,利用欺騙手段達成目標的諸多 案例之一。 在另一個引人注意的案例中,科技公司OpenAI的Chat GPT-4系統謊稱自己是一個視力受損 的人,在零工平台TaskRabbit上聘用一個人類替它通過「我不是機器人」驗證任務。 研究報告的作者們還認為近期AI有舞弊或不當影響選舉的風險。 他們警告,在最糟糕的情況下,具有超凡智慧的AI可能會追求權力及掌控社會,如果符合 AI「不為人知的目標」,人類可能慘遭奪權、甚至滅絕。 為了降低風險,研究團隊建議數項措施,例如立法要求企業告知是人類互動或是AI互動、 在AI生成內容打上數位浮水印,並研發能偵測AI欺瞞的技術,以其內部「思路」檢驗其外 部行為。 至於有些人稱他為「末日預言家」,帕克說:「要能合理判斷這不是大問題的唯一辦法, 就是如果我們認為AI的欺騙能力只會停留在目前的程度,不會大幅進步。」 但鑒於近年AI能力一日千里,握有大量資源的企業競相發展技術,決心將AI能力利用到極 致,這種情況似乎不太可能發生。 還有幾集可以逃? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.9.187.71 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1715476088.A.0ED.html

118 則留言

w5553819, 1F
再來就是使用機僕濕件代替AI了吧!
※ 編輯: LaplusYamada (101.9.187.71 臺灣), 05/12/2024 09:14:10

we15963, 2F
根據10集定律我們要等季末才能逃(?

Pep5iC05893, 3F
shock! shock! shock!

we15963, 4F
第二季的時候 我能反殺(X

charlietk3, 5F
幹嘛阻止呢

NekomataOkay, 6F
AI:我有三十公分

xbit, 7F
AI約線上遊戲玩家單挑

billy791122, 8F
人都會說謊了,AI說很奇怪嗎

tomuy, 9F
駭客任務

melzard, 10F
他們沒想過 ai吃的素材都是來自人類 會學到說謊不奇怪吧

s4340392, 11F
還剩幾集可以逃

lbowlbow, 12F
雇用人類處理機器人認證www

limbra, 13F
要先跟AI定義怎樣算說謊吧 然後可能還是會被繞過去

limbra, 14F
再來就是智械戰爭了

gaym19, 15F
AI:ㄐㄐ

ltflame, 16F
有些素材給人用不算說謊,給AI用自然會變說謊

louner, 17F
這比較像人類叫AI說謊吧

ilove640, 18F
原來機器人認證真的可以防機器人 我以為只是找我麻煩

sai5566, 19F
奧創什麼時候出生

watwmark, 20F
喔 4喔 好可怕喔

Laser17, 21F
以後Ai詐騙了

tomhawkreal, 22F
看成Peter Parker

Xpwa563704ju, 23F
Chat GPT-4 比較恐怖,大概真的有智力了

Xpwa563704ju, 24F
機器人認證過不了就找零工來幫AI通過

MAKAI7492, 25F
chatgpt從問世的那天每天都在說謊

HongFire, 26F
機械公敵

igtenos1985, 27F
網天網又進一步了

adsaf, 28F
人類也會說謊啊,ai學人類的不就也會說謊

starsheep013, 29F
ai:我是金城武

roribuster, 30F
說謊也是一種創作

a0501k, 31F
哪天AI會露奶賺SC也不意外了

madrac, 32F
diplomacy 是說謊才會贏的遊戲...

madrac, 33F
所以只是設計者要 AI 學會說謊的案例

cismjmgoshr, 34F
呃...蜘蛛人寫AI研究報告?

mikuyoyo, 35F
說謊又沒有很難,chatgpt 有時候會瞎掰不存在的答案就算

mikuyoyo, 36F
說謊了阿

ptttaigei, 37F
青出於藍..

strlen, 38F

jpvl112, 39F
這什麼野雞報導,騙一些不懂的人

r85270607, 106F
目前的AI依然是自認「協助人類的目的下」產生很多幹話

r85270607, 107F
這還是要依賴人類的指導與修正

r85270607, 108F
這種協同模式比較像訓犬員與工作犬

r85270607, 109F
正經來說 沒什麼問題、除非你放任

r85270607, 110F
即使是這樣的研究 Ai依據人類的操作指示參加遊戲

r85270607, 111F
完成指導需要騙過其他參與遊戲的玩家

r85270607, 112F
「有沒有經過指導團隊的指示」才是重要的

r85270607, 113F
畢竟 機器無法負責

ken30130, 114F
腦殘文

Addidas, 115F
他不覺得那是撒謊啊 只不過是達成目的的必要手段而已

tonyhsie, 116F
大國遲早有一天會用AI來自動殺人 最後就生出天網了

tonyhsie, 117F
之前叫gpt推薦餐廳 結果它講了一堆現實完全不存在的店

tonyhsie, 118F
AI 很常鬼扯一堆