作者 chengcti (版主請投我一票!)
標題 Re: [新聞] Nvidia 最大夢魘來臨!AI 聊天機器人執
時間 Sat Feb 24 18:22:48 2024


專用型跟泛用型不同
GpU 可執行繪圖 渲染 訓練 LLVM
什麼都可以
LPU 只能提供訓練後的LLVM 產生結果
而且 GROQ 展示的參數遠比 openAI 70B
速度難比較
況且 RAM 不知道開不能支持這麼多的
Token

就好像拿GPU 挖礦跟 ASIC 挖礦
GpU 不挖礦還有別的可以做
GROQ 不跑LLVM 就啥都不能做




※ 引述《pl132 (pl132)》之銘言:
: Nvidia 最大夢魘來臨!AI 聊天機器人執行 Groq LPU 比 GPU 快十倍
: http://tinyurl.com/2y4cehyv
: 不論何種 AI 應用,速度非常重要。當我們要求熱門 AI 聊天機器人撰寫文章、電子郵

: 或翻譯文稿時,我們會希望輸出結果愈快愈好。如今一家專為運行 AI 語言模型設計客

: 化硬體,並致力提供更快 AI 的 Groq 公司,能以比普通人打字速度快 75 倍的速度呈

: 結果。
: Groq 專為 AI、機器學習和高效能運算應用程式開發高效能處理器和軟體解決方案,千

: 不要和馬斯克(Elon Musk)的 Grok 聊天機器人混淆,它並非聊天機器人,而且這家

: 部位於加州山景城(Mountain View)的公司目前沒有打算要訓練自己的 AI 語言模型

: 而會致力讓其他公司開發的模型高速運行。
: 當前幾乎所有 AI 工具都使用 GPU,但 Gorq 卻使用截然不同的硬體,亦即專為處理大

: 語言模型(LLM)而設計的 LPU(Language Processing Unit,語言處理單元)。
: 由於 Groq 的 LPU 專門設計用於處理像是 DNA、音樂、程式碼及自然語言之類的資料

: 列,因此在這類應用方面的處理效能遠勝 GPU。該公司宣稱,其用戶已經使用其引擎和
:  API 運行 LLM 模型,其運行速度比基於 GPU 的替代方案快 10 倍。
: 目前 Grog 在自家官網上提供基於三種不同 LLM 模型(目前提供的模型包括 Meta 旗

:  Llama 2、法國新創 Mistal AI 旗下的 Mixtral-8x7B 和 Mistral 7B)的聊天機器人

: 使用者可以免費嘗試在 LPU 加持下的聊天機器人和一般 GPU 支援的效能有何不同

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 37.19.205.185 (日本)
※ 作者: chengcti 2024-02-24 18:22:48
※ 文章代碼(AID): #1bsSDwln (Tech_Job)
※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1708770170.A.BF1.html
※ 同主題文章:
Re: [新聞] Nvidia 最大夢魘來臨!AI 聊天機器人執行 Groq LPU 比 GPU 快十倍
02-24 18:22 chengcti
keelungReeve: LLM喇1F 02/24 18:35
relaughter: LLVM 是 compiler2F 02/24 19:11
musashi023: LLVM xd3F 02/24 19:31
wrt: 不要笑,說不定真的是LLVM4F 02/24 19:34
abbei: V for voice & video 我瞎掰的XD5F 02/24 19:55
celestialgod: 原文寫LLM 也可以抄成LLVM XDD6F 02/24 21:26
peter98: 不要笑  不要笑7F 02/24 21:27
cosmo7897: 看了推文才知道是在講LLM?8F 02/24 22:30
NCTU5566: LLVM不是compiler嗎?9F 02/24 22:34
shter: GPU一開始也只是專用型,很晚期才拿來訓練
只能配合 OpenGL、DirectX 繪圖用10F 02/24 23:27
Dracarys: 笑到肚子痛12F 02/25 03:11
MTKer5566: 用shader寫GPGPU表示13F 02/25 14:00
btpeter: 笑死 一堆三腳貓…也在吹喇叭….14F 02/25 18:10

--
作者 chengcti 的最新發文:
點此顯示更多發文記錄