※ 本文轉寄自 ptt.cc, 文章原始頁面
看板Stock
標題

Re: [新聞] ChatGPT的「幻覺」根本無法解

時間
最新2023-08-27 12:48:00
留言450則留言,65人參與討論
推噓45 ( 5813379 )
※ 引述《breeze0817 ()》之銘言: : 原文標題: : 技術專家:ChatGPT的「幻覺」根本無法解決 : 原文連結: : https://reurl.cc/N0KRy6 : 發布時間: : 2023/08/09 15:58 : 記者署名: : 鉅亨網新聞中心 : 原文內容: : 掀起 AI 浪潮的 ChatGPT 儘管可以協助解決很多事情,但也因為會產生虛假的訊息,或 : 誤導性的內容,產生「人工智慧幻覺」(hallucinations) 而飽受批評,專家認為這種「 : 幻覺」受到技術與需求之間的限制,根本無法被解決。 : 財富網中文網報導,與 ChatGPT 或其他 AI 聊天機器人相處足夠長的時間,很快就會發 : 現它們有時會「編造答案」,這種現象被稱為「幻覺」,即機器人做出的捏造或純粹的編 : 造,對於那些試圖讓 AI 系統編寫文檔並完成工作的企業、組織甚至學生,這是一個致命 : 的問題。 : 聊天機器人 Claude 2 的製造商 Anthropic 共同創始人 Daniela Amodei 認為,現在沒 : 有任何一種模型能夠完全避免產生幻覺,因為它們的設計初衷只是用來預測下一個單詞, : 因此模型肯定會有一定的錯誤率。 : 包括 ChatGPT 的製造商 OpenAI、Anthropic 及其他大型語言模型的 AI 系統主要開發者 : 都表示,他們正努力讓這些系統變得更準確,但目前尚不清楚需要多長時間才能達到足夠 : 的可靠性。 : 不過,華盛頓大學計算語言學實驗室的主任、語言學教授 Emily Bender 認為,「這個問 : 題無法完全解決,因為技術與實際需求之間存在固有的不匹配。」 : Google 已向新聞機構推銷一款新聞寫作 AI 產品,而作為與 OpenAI 合作的一部分,美 : 聯社也在探索使用這項技術,而 OpenAI 正在付費使用美聯社的部分存檔文本來改進其 A : I 係統。因此,生成式 AI 的可靠性至關重要,麥肯錫全球研究院(McKinsey)預計,這 : 將為全球經濟帶來相當於 2.6 兆至 4.4 兆美元的收入。 : 心得/評論: : chatGPT訪問量一再下滑 : 一窩蜂投資ai伺服器去訓練語言模型的 : 越來越有元宇宙的fu糗了 : 散戶:這次不一樣!! 純論AI的話 這個問題是一定可以被解決的 討論chatGPT肯定是無解 頂多提升準確度 提升到你認知不到「錯覺」 我自己是覺得用錯覺這個詞來闡述這個問題 好像滿奇怪的 簡單思考一下就知道了 假設AI是個人 他肯定會有他自己的認知 他的認知來自於他的資料庫 但誰能保證資料庫裡面的資料100%是對的? 畢竟資料庫的資料也是人為產出,或是他的開發者灌入的 最終都會限縮於:「什麼是對的」的這個命題 並且有一個很弔詭的事情是這樣的 「你憑什麼認為AI給出的答案是錯的,便稱作幻覺,難道就是基於人類的共同認知嗎?」 這個東西討論到後面就變成哲學問題了,所以不贅述。 但核心概念是這樣 一個人,老師,教授,都會有認知錯誤,都會出錯,為什麼人工智能不會 基於什麼樣的原因,你覺得他能掌握100%的真理,這樣想想不就知道了 但是基於網速科技提升,資料處理能力加強,程序優化肯定能再進步 回歸前面所說的,只要把AI的範圍侷限性拉大,就能提升正確率阿 比如你設定這個AI就叫做金融投資機器人,甚至叫做台灣金融投資機器人 並且串聯所有台灣銀行、投資平台、各大當鋪的內部資料 那肯定是強的沒話說。 你期待一個AI機器人,能貫通世界上所有領域的事情,給你都是正確的答案 那肯定是不切實際。 更何況一定一堆人是這樣:「請給我一個完美的python程序。」 「幹,你這個根本不完美」 你自己都定義不出來,都不知道什麼叫做完美了,AI怎麼可能會知道 你怎麼連話都說不清楚~ 我自己是覺得AI很神啦,沒有戰文組的意思,但對於邏輯思考,表述能力不好的人來說 可能不好用 我在某平台上面,買了好幾次程式課,每次都沒有耐心看完,把作業做完。 chatgpt用了兩三天,已經弄出了兩個簡單的小程式,改善我工作上面的需求 平心而論,我就算認真把課程都上完,自己寫,寫個1個月,大概都弄不出來。 AI最強大的,就是他給你的資訊裡面,是有一定程度的正確率的, 你本來就要能分辨,什麼東西對你有用,然後再引導他幫助你,給出更多有用的資訊, 最後幫助你完成你的目標。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 220.136.194.220 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1691634339.A.FC5.html

Re: 回文串

45450
> Re: [新聞] ChatGPT的「幻覺」根本無法解
Stock08/10 10:25

450 則留言

y2468101216, 1F
他這個幻覺是幻覺一些很明顯的是
我舉個簡單的例子給你聽 我們弄個AI加法機器人,並且只接受0~3,4個數字 那麼這個機器人的正確率 就是100%
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:28:41

y2468101216, 2F
比如日本二戰被兩顆原子彈轟炸,他會有機率說錯

y2468101216, 3F
回歸到程式面的話,簡單的程式也會幻覺。

y2468101216, 4F
比如一個程式函數只接受一個參數,他會寫兩個

Isopod, 5F
你是不是不知道它幻覺產生的內容是什麼?有一些根本

Isopod, 6F
錯誤的離譜。而且當你跟他要參考資料時,好一點會跟

Isopod, 7F
你說它理解錯了。可怕一點的會生成不存在的參考資料

Isopod, 8F
出來

Isopod, 9F
他根本不是只參考資料庫給答案,是給出根本不在資料

Isopod, 10F
庫中自己幻想的答案
承上述加法機器人的例子 你key了4和5進去,他會告訴你9 但也有可能,你key柯+大麻進去,他會回答你無罪 所以就看你有沒有要賦予他「創造」的能力 你要說他的思辨結果是不對的,一樣是看後面的演算法怎麼設定的
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:33:37

strlen, 11F
生成不存在的東西 這個人類最拿手的勒 打開電視隨便

shawkwei, 12F
4909新復興營收月增跟年增都100%

strlen, 13F
轉一間新聞台都是生成不存在的東西R XD

Isopod, 14F
我覺得你要先把你的程式課上好,再來討論耶QQ
你就 去用 加法機器人就好了嘛 是不是肯定不會錯

strlen, 15F
股板一堆財經新聞 你能分辨哪些是真哪些是假嗎 嘻嘻

kkithh, 16F
敎授那等級的人會知道他講的話是不是準確,就算表

kkithh, 17F
面堅持是準確但內心會有底,但AI目前根本無法判斷

kkithh, 18F
自己講的內容是否準確

strlen, 19F
齁齁 所以你就能判斷你眼前看到每件資訊都為真嗎XD

kkithh, 20F
所以你會看到它一本正經在講幹話
範圍縮限就能解決這個問題 因為chatgpt目前的設定範圍,是無限

IBIZA, 21F
會說是幻覺, 就是因為這些不是資料生成

kkithh, 22F
我會知道我不確定阿,知道差別嗎?

strlen, 23F
每天晚上隨便打開一台政論節目 不也都在講幹話

strlen, 24F
收視率還高到要命 大家愛看得要死 XDDDDD

IBIZA, 25F
比方說 他叫他寫程式, 他會丟給一個不存在的套件

IBIZA, 26F
一本正經的用這個套件開發程式碼
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:38:18

IBIZA, 27F
這已經不是錯不錯的問題

strlen, 28F
你跟不同信仰跟政治的人說話 感覺根本想平行宇宙

strlen, 29F
怎麼 判斷你的說法是正確 他的說法是錯誤?

IBIZA, 30F
你先了解一下為什麼會用「幻覺」來形容
我理解會什麼叫做幻覺 也理解錯誤和無中生有的差距 但只是因為他對於人類共同認知的答案 在不熟悉的環境下 有不精準的回答 這個回答來自於他的資料庫不夠精準 也來自於他的程式設計有問題 你要解決所謂幻覺 暴力破解法就是載入所有的問題和答案 但極端例子來說 11111111111111111111111111+1111111111111111111111111111 他可能就回答不了你了

z7956234, 31F
大型網頁版siri,一樣撈資料回答一樣會出錯,都一

z7956234, 32F
樣。

strlen, 33F
要捏造一個不存在的東西 這個人類更拿手 而且生活中
※ 編輯: xa9277178 (220.136.194.220 臺灣), 08/10/2023 10:41:15

IBIZA, 34F
人類也會有類似的錯覺, 例如曼德拉效應之類的

Isopod, 35F
設定的範圍怎麼會是無限,就是餵給他的資料而已。雖

Isopod, 36F
然龐大但不是無限。
據我所知 ghatgpt並沒有縮限 可以問他什麼問題 頂多犯法類型的東西 他會告訴你不能回答 而不是他不會回答

strlen, 37F
這種案例比你想像中的還要多 你用google搜也不一定

strlen, 38F
正確 一堆內容農場東拼西湊 wiki也是亂寫一通

yuzulee, 39F
推文都滿溫和的耶...

bunjie, 473F
力找chatGPT代勞 這樣不太好吧

bunjie, 474F
另外重點在於不是所有東西都是chatGPT能勝任的 有

bunjie, 475F
的領域就是一定要百分百正確 才不會造成危險 所以A

bunjie, 476F
I只是工具 chatGPT只是其中一種AI

xa9277178 作者的近期文章

[標的] 榮剛的操作 討論
標的:5009 榮剛 分類:心得 分析/正文: https://www.cmoney.tw/forum/user/833719 看到有人提出一個說法, 榮綱目前不管是發可轉債 還是之前和智冠的換股都導致股本再擴大 都是為了可以取得ETF成分
更多 xa9277178 作者的文章...