這是最近幾天TSLA那邊AI晶片訊息 https://reurl.cc/bl1xdd 現在看來就是NVDA+AMD會繼續有機會在AI晶片市場拉一波 最近另外一個比較紅的新聞是 Mistral AI小公司開發的LLM模型吸引不少人 而Misral AI是用CoreWeave租借算力 開發出來的大模型 這些小公司能靠租算力媲美大公司發展的模型 新聞大概都會讓老黃繼續開心賣他鏟子 ※ 引述《qwe22992168 (蛋疼)》之銘言: : 原文標題:雷蒙多態度髮夾彎 允輝達向中國出售AI晶片 : 原文連結:https://www.ctee.com.tw/news/20231212700408-430701 : 發布時間:2023.12.12 08:26 : 記者署名:工商時報 呂佳恩 : 原文內容: : 美國商務部長雷蒙多(Gina Raimondo)11日表示,美國正在研究輝達為中國市場開發的 : 產品,並於早前與輝達執行長黃仁勳就晶片出口進行討論,她指出,輝達「能夠、將會且 : 應當」向中國出售人工智慧(AI)晶片。 : 美國拜登政府於今年10月擴大晶片管制,劍指AI算力領域,雷蒙多更於本月稍早點名輝達 : ,直言該公司透過推出降規版晶片特別供應中國,她強調,企業不應為短期收入犧牲國安 : ,並警告稱,若再次繞道降規,商務部將會立即出手管控。 : 不過,雷蒙多11日接受媒體訪問時態度明顯軟化許多,她透露商務部將檢查輝達為中國市 : 場開發的晶片,以確保其不會違反出口管制,並指出該部定期與輝達溝通,該公司是很好 : 的合作夥伴,雙方共享資訊。 : 雷蒙多表示,由於多數AI晶片皆用於商業用途,輝達「能夠、將會且應當」向中國AI晶片 : ,不過不會讓該公司出售其最精密、處理能力最高的AI晶片,以避免中國藉此訓練先進AI : 模型。 : 雷蒙多補充指出,她一周前曾與黃仁勳溝通,黃仁勳的態度相當明確,即該公司無意違反 : 拜登政府的規則,願與政府合作,並希望在向中國銷售AI晶片時做「正確的事」。 : 針對雷蒙多的最新言論,輝達表示,目前正在與美國政府合作,在遵循規範的同時,致力 : 於為全球客戶提供資料中心解決方案。 : 至於商務部是否會對輝達的新晶片祭出任何限制,該部門拒絕發表評論,但重申會不斷更 : 新規則,以應對瞬息萬變的威脅。 : 另外,雷蒙多再次呼籲國會通過立法,以解決TikTok等外國應用程式對國家安全構成的潛 : 在威脅,並強調受到規範的不應只有TikTok,因此更需要由法律途徑對此進行管制。 : 心得/評論: : 未來黃勳仁可以向中國出售AI晶片了 : 難怪NVIDIA的股票又在漲了 : 中國又贏了 又能做AI暴打美帝了 : 美帝又輸了 為了賺錢一樣跪下去 : 用美帝的技術來暴打美帝 吃你的飯 砸你的鍋 嘻 : 不愧是制度自信 道路自信 超英趕美 彎道超車 -- ※ 發信站: 批踢踢實業坊(web-ptt.org.tw), 來自: 67.169.111.72 (美國) ※ 文章網址: https://web-ptt.org.tw/Stock/M.1702403951.A.809
musie : 我倒覺得Mistral會把算力需求打下去 12/13 02:21
musie : 1. 他主打7B~10B model 強調小模型也可以達標 12/13 02:22
musie : 2. 他的MOE就表明 可以用8x7B 去Complete 40B 12/13 02:24
LDPC : 7B 也要接近千顆gpu耶。8,個agent就要上萬啊 12/13 02:51
musie : ?? ?你在講啥 一個H100就可以train GPT-3 175B mode 12/13 03:00
yes500: 有人知道包養SD是什麼嗎 12/13 03:00
LDPC : 還有scaling law 算力只會要更多啊 12/13 03:04
LDPC : h100 80gb 單顆train 100B以上模型? 12/13 03:05
LDPC : llama 7b 是82432 hours 80gb A100單顆 12/13 03:07
LDPC : h100大概是a100兩倍 用千顆train 也要三天才能train 12/13 03:08
LDPC : 完整一次 12/13 03:08
alexantiy: 一定又是這包養網 12/13 03:08
LDPC : 7b現在最陽春做法training也要百顆啊 12/13 03:10
LDPC : 還沒說100b模型用1byte 方式load 要100gb ram 也超 12/13 03:13
LDPC : 過單顆h100 80gb 記憶體容量 12/13 03:13
musie : 我的意思是time/money trade-off 12/13 04:12
musie : 1024 A100 train GPT3 需要34d 但我也可以128 340d 12/13 04:14
sowrey: 包養平台不意外 12/13 04:14
musie : 我看7B model是不用一天就跑完.. 跑個2week也沒差 12/13 04:14
musie : 反正到最後都是卡在data quality 12/13 04:15
LDPC : 有差啊。你沒此調整一個參數 learing rate 或schedu 12/13 04:18
LDPC : le 就兩個裡拜看結果 12/13 04:18
musie : 而且現在fine-tune都用LORA 記憶體可以大砍 12/13 04:19
cw758: 覺得包養網EY嗎 12/13 04:19
musie : 只有做foundation model的要整個model 12/13 04:19
musie : 現在做foundation model也才那幾家.. 12/13 04:20
LDPC : 等你找到對的data 架構和training。至少要數十次調 12/13 04:21
LDPC : 整 每次五天和每次一個月 差距就是被幹掉 12/13 04:21
musie : 大大做foundmaion model嗎 我們應用沒有這麼多錢 12/13 04:21
ludi: 包養網站葉配啦 12/13 04:21
LDPC : 這也是為何meta有五萬張a100 就是搶縮減時間 12/13 04:22
LDPC : misra就是做pretrained llm 12/13 04:23
musie : 應用面就真的都卡在生資料和洗資料 我是不覺得 12/13 04:23
musie : 大家還會瘋狂搶GPU啦 12/13 04:23
LDPC : 現在不是只有大廠玩的起 很多學校也玩的起 12/13 04:23
peernut: 記者收了包養網多少啦 12/13 04:23
Alwen : 推特有人說大概明年上半年就能看到有人把GPT4等級的 12/13 06:03
Alwen : 模型開源,大廠大模型還真的沒辦法獨佔惹 12/13 06:04
EvilSD : 上半年要把GPT4等級開源很難吧 誰要開第一槍 12/13 06:44
EvilSD : 哪個大廠願意開源給你fine-tune 12/13 06:45
Alwen : 很快阿 現在開源已經追上3.5惹 12/13 07:07
xikimi: 包養真亂 12/13 07:07
Alwen : 再花半年達到GPT4 蠻正常DER 12/13 07:07
Alwen : 這東西以後只會越更新越快而已 12/13 07:08
Alwen : 當然那時候GPT4.5已經推出惹八 12/13 07:09
cosmo7897 : 7b叫做小模型XD 真會凹 12/13 07:33