※ 本文轉寄自 ptt.cc, 文章原始頁面
看板Stock
標題

Re: [新聞] 輝達H100晶片紓壓了 訂單大戶開始轉售

最新2024-03-02 11:22:00
留言257則留言,107人參與討論
推噓115 ( 1194134 )
你劃錯重點, 先不論這篇論文的可行性與實用性, 你真的劃錯重點了 算力重要嗎? 重要但是不是影響販售/採購晶片的主因, 這個年代是用軟體思考的年代, 有兩個軟體方面的主因是AI晶片的關鍵: 1. LLM 2. API/framework: CUDA, OpenCL, tensorflow, pytorch 很多人嗆我說廢話, 但是很多人卻是連廢話都不懂, LLM 全名叫做 "Large" language model, 都已經叫做Large 了, 還放在最前面以表示重要性, 所以能夠處理"Large" 模型的能力 遠比算力重要的多, 這篇文章有圖形解釋cpu vs gpu vs tpu的差別, https://www.linkedin.com/pulse/ cpu-vs-gpu-tpu-unveiling-powerhouse-trio-computing-abhineet-raj/ 所以拿這三者來比較算力是很蠢的事情, 這三者的算力彼此之間個差了十倍到百倍的差距, 比方說我有一大串數字/資料要做運算, cpu 必須每個數字/資料做運算之後相加減, gpu 把數字/資料放進兩個矩陣一次就算完, tpu 直接把算法設計成硬體邏輯, 數字/資料放進tpu可以直接得到結果, 所以你看出問題了嗎? 當你的資料與模型太大 會塞不進去矩陣 (v-ram), 同樣的道理, 資料與模型太大 會塞不進去tpu裡頭 (v-ram), 現代化的AI 瓶頸已經從算力提升到模型太大, 而這就是NVDA 厲害的地方, 一顆GPU v-ram 不夠塞進資料與模型, 沒關係, NVDA 把GPU 串連起來, 數百萬顆的GPU 串連 v-ram提升數百萬倍, 總可以塞進資料與模型來運算了吧, 請參考"電池串連"原理 就可以了解我在說什麼 TPU 原本把算法設計成硬體邏輯是個優點, 但是在串連運算上面卻成了缺點, 矩陣運算可以串連串起來運算, 邏輯電路要串連 v-ram 運算反而變得非常複雜與難實現, 所以TPU 被綁在自身v-ram 的大小限制上面, 太大的模型與資料無法放進v-ram 就無法運算, 不過還是有解決方法, 這邊就不多說了 所以算力重要嗎? 在LLM 面前 真的不是最主要的考量 2. CUDA 版上吵翻天了, 不需要多說了, 你算力就算能比NVDA快上萬倍, 你也要能夠繞過CUDA 再說, 更何況算力有沒有比較快都很難說 ※ 引述《oopFoo (3d)》之銘言: : 千禧年的網路泡沫,也是先炒作硬體商,Cisco, Sun...,Sun還有"dot in dot-com"的廣告。 : 網路確實是改變世界,但真正大賺的是軟體公司,而且是完全新鮮的軟體公司。 : 這次AI浪潮,應該也是類似。 : N家這次炒作這麼高,是因為真的,Compute是供不應求。每個大公司都怕買不夠,跟不上。 : 但最近一些AI的發展,也許會發現,這些Compute是不需要的。 : Mamba, RetNet, RWKV是從"Attention"的這點來改善。"Attention"是Quadratic Complexity,這是硬體需求的關鍵。現在在找方法從Quadratic改成Linear。 : Mamba我很看好,它的作者之一也是"Flash Attention"的作者。 : 但昨天一篇新的論文,可能是真的翻天覆地的開始。 : https://arxiv.org/abs/2402.17764 : "The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits" : https://news.ycombinator.com/item?id=39535800 : hn的討論。 : 現在討論的共識是,可行,理論基礎很扎實。各路人馬開始指出,從2006年開始的這方面研究,已經找出好多篇證實這方向是可行的。 : 現在的LLM是用fp16(16bits),這方法可1.58bits,(討論說可以縮到0.68bits) : 然後本來是fp dot product的只要int add。 : 輕鬆10x的效能,新ASIC針對Ternary weight發展可以輕鬆100x的效能改善? : 如果這篇證實是可行的,AI起跑點重新設置,所有公司的價值都要重新計算。 : 這篇的作者群很有資歷,但很有趣的是,主要是來自北京/清華大學。美國猛力壓制中國的運力運算,造就不太需要Compute的方法的發現,戳破美國AI泡沫,這會是非常的諷刺。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 76.103.225.6 (美國) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1709177914.A.EF9.html

Re: 回文串

257 則留言

pmes9866, 1F
好的 歐印TQQQ

leochen124, 2F
謝謝分享

poisonB, 3F
何必跟一知半解的認真

Aska0520, 4F
感謝分享 ALL IN NVDA

kid1a2b3c4d, 5F
講中文啦QQ

aimlikenoob, 6F
問就是買

tctv2002, 7F
嗯嗯 跟我想的一樣

fatb, 8F

rkilo, 9F
謝分享

sam90205, 10F
何必認真看到那篇論文的產地就可以end了.

kducky, 11F
00757會漲嗎0.0

roseritter, 12F
推. 硬體受限情況下 只能從其他地方突破惹

ab4daa, 13F
歐印TQQQ

a069275235, 14F
樓下幫我看一下這一大篇有沒有股點
GPU => NVDA vram => hbm => MU switch => AVGO 包牌 => QQQ

roseritter, 15F
中國的HBM不知道何時商業量產
※ 編輯: waitrop (76.103.225.6 美國), 02/29/2024 11:58:09

Altair, 16F
豪!!! 所以要歐印誰?

kausan, 17F
所以沒有比cuda更屌的東西你還是要舔nv
有比cuda更屌的東西, 但是掌握在七巨頭手上

a069275235, 18F
感恩明牌 五星推!

abc21086999, 19F
我記得原Po是在G工作的FTE

j65p4m3, 20F
好窩歐印
※ 編輯: waitrop (76.103.225.6 美國), 02/29/2024 12:03:04

esproject, 21F
幹嘛跟對岸小粉紅認真www 整天再吹利害了窩的鍋

leoloveivy, 22F
但如果要tpu 一定是port一個可以的model v-ram加上

leoloveivy, 23F
去面積大 價錢還是比H100划算吧嗎

lonzoball02, 24F
繞過去就好了

iamjojo, 25F
推解釋 這我看得懂

minikai, 26F
問就是TQQQ

WTF55665566, 27F
那文就是裝逼拐個彎吹支那或成最大贏家而已

WTF55665566, 28F
欠打臉

TheObServer, 29F
請問什麼東西比庫打還猛?
CUDA 是最底層的軟硬體介面, 提供軟體(寫程式)得到硬體加速的效果, 但是Google 的Tensorflow, 以及Meta/Facebook 的Pytorch, 是建構在CUDA 之上的python API 套件, 現在已經很少人直接寫CUDA, 大部分的人都用pytorch or tensorflow, 我個人的經驗是pytorch 比較容易, tensorflow 比較底層比較複雜, 但是相對的tensorflow 提供更強大與更自由的設計功能, 不論是Google or FB, tensorflow or pytorch, 在公司內部project 都已經可以繞過cuda 直接對硬體溝通加速

JKjohnwick, 30F
中國的科技業不是只能代工跟抄襲嗎

AndyMAX, 31F
switch ==> Nintendo

TheObServer, 32F
不會是量子電腦吧

subi, 33F
現在好像開始談LPU了
※ 編輯: waitrop (76.103.225.6 美國), 02/29/2024 12:22:48

motan, 34F
好,結論就是輝達強暴了

ymlin0331, 35F
包牌是TQQQ啦

fmp1234, 36F
關鍵就是要 大

truelove356, 37F
NV不是要搶AVGO的地盤

csluling, 38F
本來就是,不然一直在衝v-ram幹嘛,一堆北七一直在

csluling, 39F
講算力瓶頸

colinshih, 270F
TPU 的問題基礎類似。

yumumu, 271F

astroboy0, 272F
ㄏㄏ怎麼沒有人提挖礦潮要回來,老黃又要賺兩邊

astroboy0, 273F
怎麼看都是老黃繼續輾壓,市值能多高?或是搞拆股

Prado4840, 274F
技術上是一回事、但不代表有訂單、不代表LLM是強需

Prado4840, 275F
求。好吧我是借機希望有人可以回答我的疑惑

Lipraxde, 276F
LLM 比專家系統的助理好多了,不過要變成強需求的

Lipraxde, 277F
話可能要先解決準確度的問題,不然 LLM 就像在作夢

waitrop 作者的近期文章

Re: [新聞] 自找的!日媒評論:習近平毀了中國科技業
週末閒聊, 說說我的看法 首先, 請google "計畫經濟", 然後再google "計畫經濟+中國", 你就會得到答案 老實說, 計畫經濟並沒有不好, 尤其搭配中國廣大的市場與10億人礦, 計畫經
Re: [新聞] 謝金河指蘋果好日子不多了 全因庫克
※ 引述《Kewseq (Elwest)》之銘言: : 標題: Re: [新聞] 謝金河指蘋果好日子不多了 全因庫克 : 時間: Sun Apr 7 21:41:05 2024 : : : : : 蘋果的問題是 : 估值過高 : 歷史本益比
Re: [新聞] Fed傳聲筒:相較降息與否 官員更關注
本來不想再說下去, 但是我後來覺得有些誤會必須澄清一下 首先, 我有我的政治立場沒錯, 但是我不會跟錢過不去, 這次川普跟拜登我也都不怎麼支持, 所以沒投票, 我就是對通膨這件事情來討論, 所以有人說FED老包為了政治服務目的而降息, 我在
更多 waitrop 作者的文章...