※ 本文轉寄自 ptt.cc, 文章原始頁面
看板Military
標題

Re: [情報] 天網和奧創來啦

時間
留言20則留言,19人參與討論
推噓-5 ( 5105 )
這個情報後續有媒體出了新聞報導 https://news.ltn.com.tw/news/world/breakingnews/4321051 內文差不多和原文一樣 報導有一段這樣寫到『一架由AI操控的無人機收到的指引為摧毀敵人的防空系統,並攻擊任 何干預這項命令的人』 也就是說 1.當時受測試的AI無人機可能不只一架,只是剛好這架無人機接收的指令剛好屬於這一個低 邏輯的極端條件指令。 2.AI對指令反應和桌上型電腦其實差不多,就是if...else ....end if 的程式邏輯,這樣 的AI就如 我們的印象,只是運算元比人類發達,邏輯思考仍然離擁有自我意識和道德意識的人腦有很 大的距離。 3.執行這種死命令的無人機,其實就跟一顆巡航導彈做的事沒有多大差別,研發AI無人機, 應該不只是用來執行這種,連巡航導彈也做得到的簡單指令而已。 幸好這種科技是掌握在美軍手裡 如果掌握在小學生程度的獨裁者手裡 則會非常危險 就像他不懂病毒和航母一樣 因為他可能也沒有足夠的專業知識 支撐他對這有危險性的技術 有足夠的安全認知 這次是病毒 下次變控制核彈的天網 後果恐怕就不是只有 全世界封鎖國境3年半這麼簡單 ※ 引述《zanyking (最後的六年級生)》之銘言 : ※ 引述《jimmy5680 (還想飛的企鵝)》之銘言: : : https://twitter.com/ArmandDoma/status/1664331870564147200 : : https://tinyurl.com/mr2mynn8 : : 根據一場研討會的討論內容 : : 美國空軍曾在模擬器裡面開發一款操作無人機的人工智慧 : : 但是最終決定權仍在操作員手裡 : : 結果模擬測試時, : : AI判斷人類的決策會干擾自己執行首要目標(摧毀目標的防空系統) : : 因此AI決定要攻擊操作員 : : 美軍輸入參數要求AI不可以攻擊操作員之後 : : AI的決定是改成攻擊通訊系統,讓操作員無法下令 : : ====== : : 不知道這算天網還是奧創,只能說科幻電影都是真的 : : 網友:https://pbs.twimg.com/media/Fxj-SA1WcAYlc95.jpg
Re: [情報] 天網和奧創來啦
: 現在的AI都是用類神經網路、多代理人策略、搭配世代演化來生成的 : 而在模擬演化過程裡,我們怎麼設定並篩選『哪一隻AI應該活到下一個iteration』呢? : 如果是特定戰鬥平台的戰術用AI,可以想像評判標準就是建立在殺敵經濟效率上的, : 『如何善用每一個作戰單位的經濟價值達到最高交換比』會是最合理的判斷標準 : 但這個判斷標準本身就必然導致訓練出來的AI一但放出場就容易像瘋狗一樣的亂咬人 : 因為單位時間、單位戰鬥單位的經濟量面前,什麼都不做創造出最少的價值,而AI卻是 : 被訓練成追求最大的價值:也就是消滅敵方的,即使打錯對象殺錯人會有負分,但扣分 : 能扣多少呢?人的決策速度與AI的決策速度是可以有10的7次方以上的差距的,等待人 : 類的決策對AI來說幾乎是永恆 : 所以只能在AI演化迭代出來以後,才在各種情境模擬中縫縫補補,設定各種額外添加的 : 邊界條件,在執行過程的critical path 上AI沒辦法碰到的各種步驟中,就像是給狗戴 : 上電擊項圈那樣的約制它 : 另一個造成AI往瘋狗演化的因素是: : 每個演化世代的篩選幾乎無法靠人工,因為世代可能得迭代上萬代,而每代的代理人 : 數量可能也是好幾萬,用人工去篩選這個工作量與時間是天文數字,只能寫程式去篩選 : 但這就要求工程師與科學家必須要可以用程式碼描述一個戰爭世界,裡面能向AI呈現 : 『什麼是戰略?』 : 『什麼是政治?』 : 『為什麼摧毀錯誤目標會造成戰略上的失敗與政治災難?』 : 『為何在局部戰術執行的最佳化上,需要人類決策的干預來實現戰略價值最大化?』 : 我不敢說不可能,但起碼目前人類辦不到 : 破壞力越強、戰術執行造成的戰略與政治影響力越大的戰鬥平台就越難丟給AI : 這不是什麼天網啦、什麼人類末日啦 : 這只是我們單純的在電腦上用AI重現了養蠱,以及證明了不論AI還是人類,單純追求 : KPI(key performance indicator)、局部最佳化會如何引發災難而已 -- 上海三公報和九二共識一樣 都是一個公報各自表述 就只是用來大內宣 唬攏牆內韭菜用的 支那粉紅 醒醒 中英聯合聲明都可以當歷史文件 開羅宣言 波次坦宣言 上海三公報 差不多也可以當衛生紙擦屁股 和大便一起沖馬桶了XD -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.10.3.107 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Military/M.1685694204.A.1F2.html
mudmud : 簽名檔不當政治用語還是拿掉吧,別給版主添麻煩06/02 16:25
※ 編輯: TWNOTCHINA (101.10.3.107 臺灣), 06/02/2023 16:25:19
VANNN : 你怎會知道美國政客不會亂搞????06/02 16:25
: 『為什麼摧毀錯誤目標會造成戰略上的失敗與政治災難?』 : 『為何在局部戰術執行的最佳化上,需要人類決策的干預來實現戰略價值最大化?』 : 我不敢說不可能,但起碼目前人類辦不到 : 破壞力越強、戰術執行造成的戰略與政治影響力越大的戰鬥平台就越難丟給AI : 這不是什麼天網啦、什麼人類末日啦 : 這只是我們單純的在電腦上用AI重現了養蠱,以及證明了不論AI還是人類,單純追求 : KPI(key performance indicator)、局部最佳化會如何引發災難而已 -- 上海三公報和九二共識一樣 都是一個公報各自表述 就只是用來大內宣 唬攏牆內韭菜用的 粉紅 醒醒 中英聯合聲明都可以當歷史文件 開羅宣言 波次坦宣言 上海三公報 差不多也可以當衛生紙擦屁股 和大便一起沖馬桶了XD -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.10.3.107 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Military/M.1685694204.A.1F2.html

Re: 回文串

-520
> Re: [情報] 天網和奧創來啦
Military06/02 16:23

20 則留言

mudmud, 1F
簽名檔不當政治用語還是拿掉吧,別給版主添麻煩
※ 編輯: TWNOTCHINA (101.10.3.107 臺灣), 06/02/2023 16:25:19

VANNN, 2F
你怎會知道美國政客不會亂搞????
※ 編輯: TWNOTCHINA (101.10.3.107 臺灣), 06/02/2023 16:26:35

bnn, 3F
這結論只是幹掉操作的人比幹掉防空系統容易

RAA1144557, 4F
會亂搞的就是會 不在於哪個陣營

roex0608, 5F
我知道你想表達甚麼啦,但這種程式其實沒有很難

kenet123, 6F
真正的AI應該遠遠不只如此

longman, 7F
文組談AI?

vi000246, 8F
什麼if else 別瞎掰好嗎...

kenet123, 9F
不過現在媒體也是到處下AI標題

miragejames, 10F
呃 好 你說的都對

birdy590, 11F
這篇講的是四十年前的 AI @@ 早就不是這樣玩了

joy462110, 12F
Dos時代確實有if else

wahaha99, 13F
所以要怎樣if else才會把操作員當成目標?

iamstudent, 14F
AI才不是if else,程式員列舉不完的

b325019, 15F
如果只是用if else反而不會出現殺死操作員這種決策

eg860610, 16F
if else大師

SGshinji, 17F
ID全大寫的果然怪怪的

diyaworld, 18F
你的簽名檔會被桶1年,還不塊陶

sengsong, 19F
if-else 是程式員智慧不是人工智慧

andy2151, 20F
你的AI是Gameboy時代的電腦吧