※ 本文轉寄自 ptt.cc, 文章原始頁面
看板Stock
標題

[新聞] 大模型Groq首秀引爆話題 自研LPU服務速度遠快於GPU

最新2024-02-21 19:33:00
留言94則留言,31人參與討論
推噓24 ( 26266 )
原文標題: 大模型Groq首秀引爆話題 自研LPU服務速度遠快於GPU 原文連結: https://news.cnyes.com/news/id/5457929 發布時間: 2024-02-20 16:50 記者署名: 鉅亨網新聞中心 原文內容: ChatGPT 的新競爭對手 Groq 推出了語言處理單元 (LPU),並於近期首度公開成果。當提 示模型時,答案立即產生。 而且,答案是依據事實,並引述來源,長達數百字,這讓它 在社群媒體造成轟動。 Groq 憑藉的武器是語言處理單元 (LPU)。 這項尖端技術的速度接近每秒 500 個 token 。 它為數位處理的速度和效率樹立了新的基準。LPU 能將延遲降至最低而脫穎而出,提 供了迄今為止聞所未聞的服務速度。 據報導,Groq 的 LPU 旨在解決 CPU 和 GPU 等舊技術的限制。 當面對大量運算需求時 ,傳統的處理架構往往無法滿足要求。 Groq 使用新的張量流處理器 (TPS) 架構來實現 LLM 運算。 憑藉其快速推理和降低功耗的承諾,TPS 和 LPU 有望改變處理資料的方式。 據 X 平台帳號 k_zer0s 發文表示,Groq 的 LPU 不需要像 Nvidia GPU 那樣快速的資料 傳輸,因為它們的系統中沒有 HBM。它們使用 SRAM,其速度比 GPU 使用的速度大約快 20 倍。由於推理運行使用的資料比模型訓練少得多,因此 Groq 的 LPU 更節能。與用於 推理任務的 Nvidia GPU 相比,它從外部記憶體讀取的資料更少,功耗也更少。 LPU 的運作方式與 GPU 不同。 它使用臨時指令集電腦架構,因此不必像 GPU 使用高頻 寬記憶體 (HBM) 那樣頻繁地從記憶體重新載入資料。 這有助於避免 HBM 短缺問題並降 低成本。 LPU 不像 GPU 需要超高速儲存。 Groq 聲稱其技術可以憑藉其強大的晶片和軟體在人工 智慧任務中取代 GPU。 Google TPU 專案的先驅 Jonathan Ross 於 2016 年創立了 Groq。該公司迅速確立了自 己在處理單元創新領域的領導者地位。 Ross 在人工智慧和處理技術方面的豐富背景推動 了 LPU 的發展。 Groq 公司宣稱,其技術能夠透過其強大的晶片和軟體,在推理任務中取代 GPU 的角色。 Ross 曾表示,「Groq 的存在是為了消除『富人和窮人』,並幫助人工智慧社群中的每個 人發展。 而推理是實現這一目標的關鍵,因為『速度』是將開發人員的想法轉化為商業 解決方案和改變生 APP 的關鍵」。 心得/評論: 如果真如報導所聲稱的那麼強, 那麼算力的要求就不需要那麼高? 成本可以大幅下降,對Nvidia是個挑戰 另外該技術似乎不需要大量HBM,對這半年HBM的概念股MU、海力士也是挑戰 -- 被動收入存錢筒~ -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.126.254.52 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1708493887.A.2D9.html

94 則留言

jecint1707, 1F
過客?

NexusPrime, 2F
真的這麼強那GPU要退下了嗎?

rxsmalllove, 3F
觀望

BryceJames, 4F
太棒了 NV殺手愈多 NV越漲

hbj1941, 5F
先聽聽再說,以前也有很多東西號稱強幾十倍,結果

hbj1941, 6F
都是假設

Tox, 7F
不知道這公司講的是否真的那麼強,或是某些條件假設

emilchu98, 8F
所以這幾天NV跌這個?

a2007535, 9F
Gemini 的 Demo都可以 不講重點 類造假了

a2007535, 10F
這種公司的也有可能只是來發個新聞 騙個投資的

a0902236817, 11F
sram取代hbm

Homeparty, 12F

donkilu, 13F
針對inference的加速器很多公司都有在做

donkilu, 14F
但這種特化的解決方案也很容易跟不上日新月異的模型

renfro928, 15F
[新聞] 大模型Groq首秀引爆話題 自研LPU服務速度

imhan705, 16F
不用去猜跌啥 漲多回很正常的

Aska0520, 17F
這新聞應該還有後半段,Groq的綜合成本是NV的30多倍

Aska0520, 18F
要實際可以運行需要572張芯片 成本高達1144萬美元

Aska0520, 19F
相比之下,8張H100的系統在性能上與Groq系統相當

Aska0520, 20F
但硬件成本只要30萬美

polypress, 21F
呃 你要不要重看一次文章,再重寫一次心得

Aska0520, 22F
所以文章不能只看一半QQ

Altair, 23F
原來CP值差太多...

bnn, 24F
成本當然是以後量產才會降下來 現在30倍又怎樣

Transposon, 25F
沒有像菇狗、軟軟的規模,錢燒完就入土了

fedona, 26F
推理使用...

KrisNYC, 27F
Cuda還比較萬用 TPS算是比較貴又功能單一的新解

KrisNYC, 28F
是說你要繞過cuda幾十年的專利自己出一招真的很難

KrisNYC, 29F
做到這樣已經真的很屌了

appledick, 30F
感覺現在AI根本走錯方向了吧,去處理一些難度很高

appledick, 31F
的模型運算或模擬才有意義吧,一直說文解字的到底三

appledick, 32F

KrisNYC, 33F
說文解字有市場性阿 現在AI已經真的很多人在訂閱

KrisNYC, 34F
真的很多公司實打實的在收訂閱錢進來了

KrisNYC, 35F
chat gpt4免錢的去載來用英文跟他聊天看看

KrisNYC, 36F
你會發現真的幾乎可以取代英文口說家教 而且你跟他

KrisNYC, 37F
聊什麼他都可以回答你 50年前的星戰到最新的電影

KrisNYC, 38F
昨天晚上的特定某廠足球比賽 他都可以跟你尬聊

KrisNYC, 39F
你今天要去開一個會 你大綱寫寫 chat GPT4開起來

KrisNYC, 82F
過往錢不夠 人不願意投資 做不出來 AI進來以後

KrisNYC, 83F
5年 同團隊可以跑500次 理論上會成功35件

KrisNYC, 84F
不能投資的東西突然通通可以投資了 這就是AI的魅力

KrisNYC, 85F
我說的新合金比例試錯就是一個例子 你可以想想

KrisNYC, 86F
cyber trunk 捨棄了傳統的車架+板金結構 研發了幾年

KrisNYC, 87F
才找到兼顧可量產購強度可以使用的那個造型

KrisNYC, 88F
以後要研發這種造型5年本來只能出一個 變成能出50個

KrisNYC, 89F
現有的車子要模組底盤和鋼架的基本邏輯直接推翻了

CaTkinGG, 90F
百科+光碟 真的是時代的眼淚大合體

bj45566, 91F
你沒讀懂我的意思或你不是很瞭解 CS -- 我講的是「

bj45566, 92F
已有數學證明是最佳演算法」的大量運算,像是 sorti

bj45566, 93F
ng, shortest path,... 那些計算 AI 沒有插手的空

bj45566, 94F
間,量子電腦反而可能有,總之和你講的東西非常不同

Tox 作者的近期文章

Re: [新聞] 港股失守萬六 13個月新低今年30家券商倒
現在港股就是信心都不見了,就被當垃圾在丟, 簡單介紹3檔供有閒錢的可以考慮"各"擺個2%,擺個幾年看是否能成為樂透。 工商銀行(HK:1398):中國前兩大銀行 前十大客戶沒有房地產業者,前十大客戶佔放款18.6%(20
更多 Tox 作者的文章...