※ 本文轉寄自 ptt.cc, 文章原始頁面
看板Stock
標題

Re: [新聞] 輝達H100晶片紓壓了 訂單大戶開始轉售

最新2024-03-02 03:01:00
留言212則留言,121人參與討論
推噓10 ( 5040122 )
千禧年的網路泡沫,也是先炒作硬體商,Cisco, Sun...,Sun還有"dot in dot-com"的廣告。 網路確實是改變世界,但真正大賺的是軟體公司,而且是完全新鮮的軟體公司。 這次AI浪潮,應該也是類似。 N家這次炒作這麼高,是因為真的,Compute是供不應求。每個大公司都怕買不夠,跟不上。 但最近一些AI的發展,也許會發現,這些Compute是不需要的。 Mamba, RetNet, RWKV是從"Attention"的這點來改善。"Attention"是Quadratic Complexity,這是硬體需求的關鍵。現在在找方法從Quadratic改成Linear。 Mamba我很看好,它的作者之一也是"Flash Attention"的作者。 但昨天一篇新的論文,可能是真的翻天覆地的開始。 https://arxiv.org/abs/2402.17764 "The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits" https://news.ycombinator.com/item?id=39535800 hn的討論。 現在討論的共識是,可行,理論基礎很扎實。各路人馬開始指出,從2006年開始的這方面研究,已經找出好多篇證實這方向是可行的。 現在的LLM是用fp16(16bits),這方法可1.58bits,(討論說可以縮到0.68bits) 然後本來是fp dot product的只要int add。 輕鬆10x的效能,新ASIC針對Ternary weight發展可以輕鬆100x的效能改善? 如果這篇證實是可行的,AI起跑點重新設置,所有公司的價值都要重新計算。 這篇的作者群很有資歷,但很有趣的是,主要是來自北京/清華大學。美國猛力壓制中國的運力運算,造就不太需要Compute的方法的發現,戳破美國AI泡沫,這會是非常的諷刺。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 219.70.128.119 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1709165206.A.DEA.html

Re: 回文串

212 則留言

addy7533967, 1F
蒜粒概念股有嗎

YummyLin2120, 2F
可惜民進黨逢中必反 根本反智

leochen124, 3F
中國沒有a100也可以發論文?

patrol, 4F
嗯,先拿點實際的東西出來看看

sirins, 5F
種蒜用農藥,重返榮耀哪一間我就不說了

poisonB, 6F
說得很好 繼續加油啦

fedona, 7F
實作的出來再吹

apple123773, 8F
這時候崩真的好,大家就可以xdd

kausan, 9F
算力需求根本沒極限 結案

wUbInG, 10F
可惜民進黨逢中必反 根本反智

otaku690, 11F
對於降低資料頻寬的追求跟美國打不打壓沒關係啦

iamchuan314, 12F

zxcvb1234522, 13F
投資那麼多算力,結果沒辦法賺錢,目前很多AI產品

zxcvb1234522, 14F
的狀況

audic, 15F
沒有算力才在那邊搞五四三,最終還是回歸算力追求

hwei9582905, 16F
大紀元

audic, 17F
跟縮小晶片跟先進封裝兩條線不衝突一樣

mojito888, 18F
理論上時光機也做得出來,理論上啦!中或贏,要加

mojito888, 19F
油餒…

ppon, 20F
之前以太幣也是出現更有效率的挖礦法 結果沒人再用

ppon, 21F
顯卡挖 AI感覺也是遲早的事

emind, 22F
美國用這個技術訓練更大的模型?

tttt0204, 23F
中文太爛,重寫一遍

littlejackbr, 24F
我很懷疑你到底知不知道自己在講什麼

AGODC, 26F
就是沒算力才在那邊搞東搞西的,等這東西真的弄出來

AGODC, 27F
,人家瘋狂買算力的都跑多遠了?

s56565566123, 28F
好了啦 你賺多少

WTF55665566, 29F
優化架構本來就一直存在 把這個扯成跟打壓晶片有關

WTF55665566, 30F
?問號

WTF55665566, 31F
還在理論可行沒實作的東西看看就好 不要又搞個超導

WTF55665566, 32F
體笑話

henry2003061, 33F
你是誰

kausan, 34F
這麼說好了 gpu遲早會降價 沒錢的公司可以等價格合

kausan, 35F
理再買阿

powerkshs, 36F
又是太監在自慰不用性生活ㄏㄏ

herrowui, 37F
大學的論文著重在理論,是的理論!!

c928, 38F
這文字看了就頭痛

ck326, 39F
看到吹強國就可以不用看了

shadtalker, 200F
扯到底中國為何CV LLM可以這麼強

yiersan, 201F
中國自我安慰罷了 可憐那

vacuityhu, 202F
不是啊...就算真的能無損效能改int, 那改完int省出

vacuityhu, 203F
來的算力我也可以繼續擴增模型尺寸啊, 模型變大能

vacuityhu, 204F
做的事更多更好一樣甩你好幾個車身, 不加大模型我

vacuityhu, 205F
也可以加快運算效率啊, 影片即時翻譯字幕比你快比

vacuityhu, 206F
你精準還是把你壓在地上摩擦, 追根究底算力碾壓的

vacuityhu, 207F
前提下還在妄想什麼彎道超車?

sa87a16, 208F
連晶片都要手工的國家,你吹慢慢吹

sa87a16, 209F
上次一堆韭菜被詐騙,這次一定不一樣對不對

musie, 210F
笑死 一堆不懂AI的在亂噓 我公司在小模型可以重現

musie, 211F
這對降低成本還有inference速度有很大的影響

musie, 212F
這是今年以來最重要的Paper

oopFoo 作者的近期文章

Re: [討論] Google開發工具工程總監:Rust 開發者的
※ 引述《Lushen (pttlushen)》之銘言: : Google開發工具工程總監:Rust 開發者的生產力是 C++ 的兩倍 : https://bit.ly/3JASfNe 另外一個相反的例子。 https://loglog.g
Re: [情報] 英特爾認錯…擴大釋單台積 操刀範圍擴及
※ 引述《AquaChen1012 (阿扁)》之銘言: : 英特爾執行長基辛格在法人會議中表示,英特爾晶片代工業務受到決策錯誤的拖累,包括 : 一年前反對使用荷蘭ASML的EUV設備。基辛格說,部分由於這些失誤,英特爾已將晶圓總 : 數的約
[新聞] Yuzu Citra開發團隊賠償2.4M鎂和解
https://storage.courtlistener.com/recap/gov.uscourts.rid.56980/gov.uscourts.rid.56980.10.0.pdf https://reurl.cc/VNolp6 Y
Re: [討論] 多線程軟件設計用書
※ 引述《musashi023 (太陽魚)》之銘言: : 嗨蓋斯 : 最近下班在研究Qt multithreading, 對於把CPU性能榨乾覺得蠻有成就感的 : 就搞了一本 C++ Concurrency in Action 來翻翻 除非
更多 oopFoo 作者的文章...