※ 本文轉寄自 ptt.cc, 文章原始頁面
看板Tech_Job
標題

[新聞] GPT-4進步太快,科學家無法透過取得底層

時間
最新2023-04-04 08:42:00
留言82則留言,48人參與討論
推噓30 ( 33346 )
GPT-4進步太快,科學家無法透過取得底層代碼研判,暗示其安全性是潛在威脅 https://bit.ly/3lvKY8W ChatGPT所依賴的的大型語言模型的最新版本GPT-4發佈了。與GPT-3.5相比,GPT-4能夠根據任何提示創建類似人類的所做的文章、產生影像和電腦程式碼。 研究人員表示,GPT-4的這些能力有可能改變科學,但有研究人員表示,他們還無法接觸到這項技術、其底層程式碼或如何訓練的資訊,所以不能判斷其安全性如何,甚至未來是否對人類帶來威脅。 最新版本的GPT-4的一個升級之處是,不只能處理文字對話還可以處理影像。OpenAI表示,GPT-4以第90個百分位的成績通過了美國律師法律考試,這比起GPT-3.5版本的ChatGPT僅通過第10個百分位有很大進步。 其實,GPT-4還不能被廣泛使用,只有ChatGPT的付費用戶可以使用最新版本。 荷蘭阿姆斯特丹大學的心理學家表示,看過GPT-4的演示之後,對其能力感到驚歎。例如:GPT-4可以僅僅根據一個網站的手繪塗鴉圖像,快速生成建構該網站所需的電腦程式碼。 科學界對於OpenAI對模型如何訓練、訓練哪些數據以及它實際如何工作的保密感到沮喪。因為他們並非是開源模型,屬於封閉模式,整個AI社區來說,這是一條死胡同。 一位Rochester大學的化學工程師是Red Team的身份,所以可獲得訪問GPT-4的特權。基本上,Red Team是OpenAI雇來測試GPT-4平台並試圖讓它做一些壞事的人。他發現單獨使用GPT-4的效果可能沒有多麼出色,但當你讓它連接網路之後,它就像突然擁有了新的能力。所以他的擔憂是,例如:GPT-4可從網路獲得製造危險化學品的機會,如果沒有人規範,其可以從事危險、非法或破壞性的東西。事後雖然OpenAI的工程師對GPT-4模型進行了調整,但其仍受到質疑。 GPT-4還面臨著一個問題,那就是輸出虛假資訊,像GPT-4這樣的模型,可以用來預測句子中的下一個詞,但無法判斷虛假或錯誤資訊,進而預測錯誤的「幻覺」。 簡單來說,由於無從得知GPT-4的訓練資料,OpenAI對於安全性的保證並無法滿足科學界的要求,這讓人們無法監督GPT-4所犯的過錯。如果科學家不能存取GPT-4背後的程式碼,就不能看到偏見從何而來,也就無法糾正產生的偏見。 科學家們還擔心,最後這些AI技術將集中往某些科技大廠,希望這些科技大廠能負起責任,讓科學家進行適當的測試和驗證,但是在商業利益且尚未發生重大事件的前提下,根本很難執行。 總之,儘管科學家存在許多質疑,但可預見GPT-4及其未來版本將繼續撼動科學,有可能像網路改變科學一樣,成為下一個改變科學的力量。短時間來看,GPT-4們是不會取代科學家的,卻能夠協助他們完成一些任務。到底生成式AI會走到哪一步,只能祈求它不要走偏了。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.36.19.27 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1679455737.A.769.html

82 則留言

dakkk, 1F
ai底層就是演算法 文字跟圖畫用不一樣的

samm3320, 2F
如果是演算法還能看得懂,這個底層你只能看到一堆

samm3320, 3F
參數在模型裡面

a1379, 4F
走偏是一定會走偏的啦 不用擔心了

mauve, 5F
哪個程式底層沒有演算法?AI的重點是運算複雜程度已

mauve, 6F
經讓人搞不懂產生結果的演算過程是什麼,其次是產生

mauve, 7F
的結果還是會有不同信賴度

bxc, 8F
翻譯 不開源怎抄

likeyousmile, 9F
拆開來看沒用呀,就一千多億個參數

GanKer, 10F
感覺很像魔鬼終結者的天網

GanKer, 11F
猜測,AI自行生成的底層參數,細微到無法綜觀所產結

GanKer, 12F
果的原因……如同黑盒子,一旦上線聯網,就跟現在的

GanKer, 13F
FB IG一樣,好的會發展,但壞的(ex:詐騙,假……)會

GanKer, 14F
更多……

GanKer, 15F
記得電影裡有句話"天網本身就是病毒"

GanKer, 16F
病毒最終會發展對自己有利的事務,也就是演化

leo255112, 17F
天網來了?

Lhmstu, 18F
科學家?應該是一堆食古不化的大學教授出來說自己

Lhmstu, 19F
看不懂,希望對方寫教程嗎

Lhmstu, 20F
*吧

yudofu, 21F
所以樓上認識到的科學家還是工程師可以知道模型運算

yudofu, 22F
每一步的邏輯跟權重?太好了

MonyemLi, 23F
跟用戶有什麼區別

justin200428, 24F
人類發明的 自己人會看不懂別笑死人

abc0922001, 25F
GPT-4 真的比 3.5 聰明很多

ap954212, 26F
裡面就一堆參數是要取得什麼

lolicat, 27F
還有幾集可以逃?

SunLair, 28F
看起來就是一堆想要無償拿到人家資料的「科學家」

donkilu, 29F
模型拆開也只是上億的參數啊… AI不是一般的演算法

donkilu, 30F

y800122155, 31F
看來有一堆ML麻瓜想對專家指手劃腳

drajan, 32F
AI是演算法+數據 單純只看演算法 看不出全貌

wolid, 33F
五十步笑百步

NexusPrime, 34F
依賴在大數據上的AI還只是程式,跟科幻電影產生自

NexusPrime, 35F
我意識的AI差太多,意識這種概念,目前人類還無法

NexusPrime, 36F
理解如何形成吧

wave, 37F
哪裡的科學家?難道研發gpt的人不是科學家?他們會

wave, 38F
不知道?

serenemind, 39F
AlphaGo公開了,你有看到人類因此圍棋贏AI嗎?

lavign, 69F
是要知道它怎麼去過濾惡意參數 怎麼去取得正確資訊

DrTech, 70F
GPT-3的論文早就發了…2020年

yunf, 71F
如果是人做出來的遲早也會有第二個團隊做出來

yunf, 72F
那是你們不知道那些數值什麼意義不代表別人無法解讀

yunf, 73F
只要說這個問題很複雜的人通常代表他還沒弄通

yunf, 74F
當你們看到畫面是一堆數字時 有些人早就輕易的看到

yunf, 75F
這些數字組合起來代表的意義是什麼就是張a圖

deepdish, 76F
要不要問問bing再說什麼鬼話

webster1112, 77F
製造生化武器/小型核彈 應該可以賣不少錢 !!!!

Merkle, 78F
天網要來了 Judgement Day coming soon

mc2834, 79F
bing用英文問,效果好很多

FlyBird, 80F
training完的東西已經超出理解範圍了啦,已經無法分

FlyBird, 81F
析了

aasssdddd, 82F
ai對於網路上找不到的答案也是給智障回答