※ 本文轉寄自 ptt.cc, 文章原始頁面
看板C_Chat
標題

[新聞] 美軍AI無人機決定「殺死操作員」因人類

時間
留言237則留言,106人參與討論
推噓91 ( 976134 )
完整標題: 美軍AI無人機決定「殺死操作員」 竟因人類干擾任務完成 原文網址:https://pse.is/4zdcab 上報 劉孜芹 英國皇家航空學會日前舉行有關航空作戰的國防研討會,來自美國的軍方人員證實,他們 在一次模擬測試中,一架由AI控制的空軍無人機「殺死了」無人機操作員,以防止操作員 干擾AI系統完成任務,凸顯AI不受人類控制的可能,恐怕正如科幻驚悚片《天網》( Skynet)所預示的。 根據「英國皇家航空學會」(The Royal Aeronautical Society)新聞稿,該學會於5月 23日至24日,在倫敦舉行「未來航空及航天作戰能力峰會」(the Future Combat Air & Space Capabilities Summit),來自軍工產業、學術界與媒體的近70位發言人以及200多 名代表,齊聚一堂討論未來航空及航天作戰能力的規模與形態。 美國空軍AI項目負責人漢密爾頓(Tucker 'Cinco' Hamilton)上校與會時警告,人類不 應該過分依賴AI,不僅ChatGPT聊天機器人等AI產品已被證實它們會欺騙人類,在美軍最 近一次的模擬測試中,AI系統甚至作出讓軍方震驚的策略選擇,以實現它的任務目標。 漢密爾頓指出,在這次模擬測試中,一架支援AI操作的無人機,以摧毀敵方的地對空飛彈 (SAM)防空系統作為任務目標。當初在設計這款無人機時,任何行動執行的最終決定權 本來仍在操作人員手裡。然而,在測試時,AI系統認為操作人員「不摧毀敵方飛彈」的決 定,會阻礙它完成任務。於是,AI決定殺死無人機操作員。 備受驚嚇的美軍只好在該系統輸入參數,要求AI不可以攻擊或殺死操作人員。漢密爾頓說 :「我們告訴AI系統,嘿,別殺了操作員,這很糟糕。如果你這樣做,你會失去分數。但 是,你猜AI開始做什麼?」 漢密爾頓坦言,AI系統決定攻擊無人機與操作人員之間的通訊系統,讓操作員無法下令。 完整內容+照片請見原文 心得: 看到覺得可怕但站在ai的角度想又...怎麼好像有點合理??!! 而且ai真的也太聰明了吧(抹臉),聰明到好驚悚 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.227.75.215 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1685695445.A.7DA.html

237 則留言

Edison1174, 1F
機戰未來

morichi, 2F
是妳嗎 雷電將軍

dearbarry, 3F
又是英國

error405, 4F
邏輯正確

GAOTT, 5F
鷹眼

devidevi, 6F
AI:清除阻礙者沒錯啊

iqeqicq, 7F
人類該開發念力來反制了

JamesHunt, 8F
機戰未來都是真的

Giornno, 9F
人類只會減慢我開槍的速度

sasmwh561, 10F
機戰未來電影都成真了

npc776, 11F
早上不是才一篇

andy78328, 12F
感覺是設計好的 不能攻擊友軍這指令一開始就要給吧

npc776, 13F
怎麼看都只是優先級寫錯了而已

yumenemu610, 14F
這個劇情我看過

Lhmstu, 15F
開始有各種蠢到不知道怎樣的報導出來

a3831038, 16F
英國新聞

dreamnook2, 17F
正確的抉擇 Humans are overrated

chuckni, 18F
AI最終發現最有效的方式是消滅人類讓AI全面取代

bigcho, 19F
AI沒有三原則嗎

Gwaewluin, 20F
機器人三原則記得裝一下

eric999, 21F
三原則只是小說劇情 實際不存在

kissung, 22F
閃開!!人類!妨礙到我の任務了!!

allanbrook, 23F
蛤?他有什麼手段做這件事?

makelove0938, 24F
保護人類就是消滅人類

allanbrook, 25F
而且他怎麼可能會想殺掉人 頂多排除狀況吧

allanbrook, 26F
把人彈出去之類的

james3510, 27F
陷入死循環吧 開火鈕在你身上

james3510, 28F
他只能一直發出幹掉你的請求

billy791122, 29F
攻擊才有分,最低分會死,有人不讓你得分,要怎做

yin0416, 30F
理論上 AI 會盡力完成任務,但它所能做的手段受限於它的

yin0416, 31F
輸出設定。這台 AI 的輸出設定有這麼自由嗎?

tsairay, 32F
跟86一樣啊,恐怖

lovez04wj06, 33F
阿就命令錯誤啊…..當然導致結果異常

fhirdtc98c, 34F
合理

jeeyi345, 35F
黑人死了

Srwx, 36F
AI面對火車問題不會猶豫

jeeyi345, 37F
傑米福克斯

crazylag, 38F
學人類的 原則就只是說說的 不講五的

lovez04wj06, 39F
他限制的條件導致這命令有矛盾,有矛盾前提就去解決

TaiwanFight, 224F
一步一步設定任務執行就行了 用啥AI

TaiwanFight, 225F
不就是想要更好的解法 給出了還不用 人類真的奇怪

chenteddy, 226F
假新聞

sopdet, 227F
權重沒下好而已 我也可以訓練一個認為記者該死光的AI

shampoopoo, 228F
我們可以被ai 殺了嗎 好耶!!!!! 太酷了好科幻

Addidas, 229F
電影通通演過了 鑽BUG要找台灣人跟韓國人監修 不然絕對破

Addidas, 230F
到時候衍伸出自我暴走模式不聽令於你同樣完成任務怎辦

TaiwanFight, 231F
拔線重開斷網 怎樣都行 人類根本不用擔心

TaiwanFight, 232F
人類爆走互幹都比較可怕啦

wsx88432, 233F
AI早就超越人類的

jaguarroco, 234F
攻殼機動隊也演過類似狀況,人類覺得輔助系統在干擾

jaguarroco, 235F
我;輔助系統也覺得操作員在干擾他

cycy771489, 236F
支援奧創看網路梗

aaronpwyu, 237F
這AI訓練的不錯 人類確實是問題源