※ 本文轉寄自 ptt.cc, 文章原始頁面
看板Stock
標題

[新聞] NV推出個人版Chat With RTX 開放下載

最新2024-02-15 17:08:00
留言51則留言,41人參與討論
推噓29 ( 30120 )
原文標題: NVIDIA 推出個人 AI 聊天機器人 Chat With RTX 開放下載 原文連結: https://reurl.cc/zlOepV 發布時間: 2024-02-14 記者署名: SINCHEN 原文內容: 聊天機器人在各種領域中被廣泛使用,並且不少採用 NVIDIA GPU 的雲端伺服器提供服務 ,但對於個人的敏感資料或者企業內部使用的狀況下,NVIDIA 推出 Chat with RTX 基於 本機的 RTX GPU 提供生成 AI 的聊天機器人服務。 Chat with RTX 採用檢索增強生成(Retrieval-Augmented Generation, RAG)、NVIDIA TensorRT-LLM 軟體與 NVIDIA RTX 加速的本地端生成 AI,玩家可依據本地的資料連結至 開源的大型語言模型庫:Mistral、Llama 2,達到快速的查詢並獲得相關答案。 此外,Chat with RTX 工具支援著 .txt、.pdf、.doc、.docx 與 .xml 等文檔格式,能 將這些本地資料加入資料庫中,並且可加入 YouTube 影片、播放清單,讓聊天機器人可 根據喜愛的影片清單提供相關的整理資訊。 Chat with RTX 基於 PC 或者工作站電腦提供本地快速的生成 AI 聊天互動功能,使用者 的資料只會儲存在本地端的資料庫中,只要使用 GeForce RTX 30、RTX 40 系列 GPU 並 有著 8GB VRAM 以上的規格,在 Windows 10、11 等作業系統都可運行。 Chat with RTX 工具基於 TensorRT-LLM RAG 開發人員參考專案所建立並於 GitHub 中開 源釋出,開發者可依據此專案自行研發自有的 RAG 應用程式,並採用 RTX 加速的 TensorRT-LLM 語言模型。 Chat With RTX 下載:nvidia.com/en-us/ai-on-rtx/chat-with-rtx-generative-ai/ 安裝完畢後 Chat with RTX 必須要指定文件、資料,才能依據這些資料透過 AI 模型生 成相關的對話,像是我指定有關於 RTX 40 Super 的資料後,就可以詢問關於 NVIDIA、 RTX 40 等問題。 換句話說若個人或企業的資料夠龐大時,可讓 Chat with RTX 的 AI 模型有著更好的資 料比對產生出關連度更高的結果;有興趣的玩家不妨下載安裝並提供資料,如此一來個人 的本地端生成 AI 聊天機器人就開始上工囉。 心得/評論: 已經有很多部落客對此有評論了 1. 整個下載包預計35G 非常大 要先把硬碟空間清出來 只支援RTX30或40系列顯卡 而且至少要8G VRAM 2. 及時運行速度很快 而且採用RAG可以很快校正答案 3. 跟GPT一樣 有些答案根本是胡扯 所以使用者還是要自己小心 感覺NV想給PC產業做個示範 以前有搭載GTX1050以上的 才叫做 Gaming PC, 現在刀客直接示範甚麼叫做 AI PC 先讓使用者有感覺 然後各大PC品牌就會自己放入符合規範的產品 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.200.31.215 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1707957298.A.697.html

51 則留言

knives, 1F
沒用,準備泡沫破裂

CaTkinGG, 2F
去年買4080很值得

jc761128, 3F
!!!!

jc761128, 4F
3060 12G可以用惹吧

piece1, 5F
繼續加賣顯卡...真的不會輸!

losage, 6F
35g叫非常大??

Alwen, 7F
就本來啥的ai pc 有裝中高階顯卡的就是惹

Alwen, 8F
牙膏在那講啥npu 真的笑死

dulldog, 9F
AI PC是Intel不甘寂寞跑出來的名詞

seemoon2000, 10F
我還以為是VRAM要35G

a000000000, 11F
8G ram能跑的不會是太大的model所以蠢很正常

xm3u4vmp6, 12F
Ai pc 最強的就MacBook 啊

fedona, 13F
amd 崩潰

AMDsucks, 14F
是在hello?

supereva, 15F
35g哪裡大…. 有在用rtx顯卡玩遊戲的 隨便也1t

supereva, 16F
2t

supereva, 17F
現在隨便一個大作都80-100g +

jeff22aa22, 18F
2024年35G絕對不算大

strlen, 19F
G叔:乾!你居然敢陰我?

Retangle, 20F
會買RTX8G顯卡的哪個硬碟沒2T

wacoal, 21F
35G放到2024 根本3.5G而已,現在隨便個大作都80起跳

TomChu, 22F
隨便一個遊戲都超過35G了

wujiarong, 23F
才10個A片的容量…

DMW, 24F
應該標榜說可以跟你家的顯卡聊天,像Hololive生成一

DMW, 25F
個虛擬圖像

zoze, 26F
RTX準備賣爆

simpson083, 27F
35g大?遊戲都80多g以上了 筆者是脫節多久了

stlinman, 28F
有Tensor加速就是爽!

GooglePixel, 29F
跟虛擬老婆聊天 滿足阿宅幻想

strlen, 30F
以後人人都可以自己做一隻neruo-sama

howzming, 31F
可能我很落伍,覺得用文字搜尋比較有效率.

SRNOB, 32F
你是一隻可愛的貓娘 我說什麼都要聽令

horseorange, 33F
等快一個月終於開放了

ALiGoo, 34F
應該是竟然只要35g吧

k862479k, 35F
提早下班回家陪rtx老婆指日可待

mike8469, 36F
35G 很小吧…..

chrischiu, 37F
AIPC對生活有幫助嗎?

yinaser, 38F
體驗比Chatgpt差很多

bitcch, 39F
50系列該給多一點ram了吧

SYUAN0301, 40F
用30.40系顯卡的,有幾個沒7.80g以上的單機大作,

SYUAN0301, 41F
30多g真的還好

fatb, 42F
電腦很小 手機很大

hcwang1126, 43F
這超屌 不會說事後發現有些東西偷偷上傳給偉哥吧?

maxty, 44F
完了NV怕不是要1000了

Hettt5655, 45F
35G超小

Zepho, 46F
有網頁版chatgpt 幹嘛自己裝地端版的?

LDPC, 47F
樓上 因為今年流行priviate data本地端跑

LDPC, 48F
且本地端對做Reg有優勢

patrickptt, 49F
可以麻煩AI機器人 做一件事 嗎?把未來10年內,每

patrickptt, 50F
日,AI的新聞,都先列出來嗎?

chrischiu, 51F
Nvidia 自己開發的不行吧

MA40433 作者的近期文章

[新聞] 嬌生兒童止咳糖漿疑檢出毒素 南非肯亞奈
原文標題: 嬌生兒童止咳糖漿疑檢出毒素 南非肯亞奈及利亞3國勒令回收 原文連結: https://www.cna.com.tw/news/aopl/202404140172.aspx 發布時間: 2024/4/14 18:31(4/14 1
[新聞] SEC批准DWAC與川普媒體公司合併
原文標題: SEC批准DWAC與川普媒體公司合併 盤中股價大漲逾15% 原文連結: https://news.cnyes.com/news/id/5454623 發布時間: 2024-02-16 02:10 記者署名: 鉅亨網 編譯 段智恆
更多 MA40433 作者的文章...