※ 本文轉寄自 ptt.cc, 文章原始頁面
看板Tech_Job
標題

Re: [新聞] Nvidia 最大夢魘來臨!AI 聊天機器人執行 Groq LPU 比 GPU 快十倍

最新2024-02-27 03:59:00
留言15則留言,14人參與討論
推噓9 ( 906 )
專用型跟泛用型不同 GpU 可執行繪圖 渲染 訓練 LLVM 什麼都可以 LPU 只能提供訓練後的LLVM 產生結果 而且 GROQ 展示的參數遠比 openAI 70B 速度難比較 況且 RAM 不知道開不能支持這麼多的 Token 就好像拿GPU 挖礦跟 ASIC 挖礦 GpU 不挖礦還有別的可以做 GROQ 不跑LLVM 就啥都不能做 ※ 引述《pl132 (pl132)》之銘言: : Nvidia 最大夢魘來臨!AI 聊天機器人執行 Groq LPU 比 GPU 快十倍 : http://tinyurl.com/2y4cehyv : 不論何種 AI 應用,速度非常重要。當我們要求熱門 AI 聊天機器人撰寫文章、電子郵 : 或翻譯文稿時,我們會希望輸出結果愈快愈好。如今一家專為運行 AI 語言模型設計客 : 化硬體,並致力提供更快 AI 的 Groq 公司,能以比普通人打字速度快 75 倍的速度呈 : 結果。 : Groq 專為 AI、機器學習和高效能運算應用程式開發高效能處理器和軟體解決方案,千 : 不要和馬斯克(Elon Musk)的 Grok 聊天機器人混淆,它並非聊天機器人,而且這家 : 部位於加州山景城(Mountain View)的公司目前沒有打算要訓練自己的 AI 語言模型 : 而會致力讓其他公司開發的模型高速運行。 : 當前幾乎所有 AI 工具都使用 GPU,但 Gorq 卻使用截然不同的硬體,亦即專為處理大 : 語言模型(LLM)而設計的 LPU(Language Processing Unit,語言處理單元)。 : 由於 Groq 的 LPU 專門設計用於處理像是 DNA、音樂、程式碼及自然語言之類的資料 : 列,因此在這類應用方面的處理效能遠勝 GPU。該公司宣稱,其用戶已經使用其引擎和 : API 運行 LLM 模型,其運行速度比基於 GPU 的替代方案快 10 倍。 : 目前 Grog 在自家官網上提供基於三種不同 LLM 模型(目前提供的模型包括 Meta 旗 : Llama 2、法國新創 Mistal AI 旗下的 Mixtral-8x7B 和 Mistral 7B)的聊天機器人 : 使用者可以免費嘗試在 LPU 加持下的聊天機器人和一般 GPU 支援的效能有何不同 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 37.19.205.185 (日本) ※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1708770170.A.BF1.html

Re: 回文串

915
> Re: [新聞] Nvidia 最大夢魘來臨!AI 聊天機器人執
Tech_Job02/24 18:22

15 則留言

keelungReeve, 1F
LLM喇

relaughter, 2F
LLVM 是 compiler

musashi023, 3F
LLVM xd

wrt, 4F
不要笑,說不定真的是LLVM

abbei, 5F
V for voice & video 我瞎掰的XD

celestialgod, 6F
原文寫LLM 也可以抄成LLVM XDD

peter98, 7F
不要笑 不要笑

cosmo7897, 8F
看了推文才知道是在講LLM?

NCTU5566, 9F
LLVM不是compiler嗎?

shter, 10F
GPU一開始也只是專用型,很晚期才拿來訓練

shter, 11F
只能配合 OpenGL、DirectX 繪圖用

Dracarys, 12F
笑到肚子痛

MTKer5566, 13F
用shader寫GPGPU表示

btpeter, 14F
笑死 一堆三腳貓…也在吹喇叭….

CuLiZn56, 15F
我發現不管是誰,都能吹一嘴好AI,這難道不是泡沫

chengcti 作者的近期文章

Re: [新聞] 省加班費?光寶科員工「打卡時間都一樣」
科技業都在家上班 內湖很多家公司不刷卡 你十點來上班也沒人理你 這要打什麼卡? 而且 根本沒有卡鐘 只有門禁資料 聽說這家公司過段時間要推1/3 員工在家上班 這樣怎麼打卡? 科技業不會偷加班費 只有傳產才會 紅利發的就比加班費多了 ※ 引
更多 chengcti 作者的文章...