2026年4月3日 星期五

大家"談人工智慧(概覽)" :「正宗輝達血統」AI 筆電,台積電 3 奈米製程打造代號 N1X 的重裝晶片;而在傳統的 x86 架構這邊,消息指出他們居然要跟 Intel 合作開發。這代表什麼?這代表輝達未來可能會是地表唯一一家,同時能端出 ARM 跟 x86 兩種架構筆電晶片的怪物。。Stephen Marche (《下一次內戰》和《論寫作與失敗》的作者;印卡整理: 我用 AI 寫了一本小說。作家必須接受人工智慧——但我們一如既往地有價值 ◎Stephen Marche) 。 AI 絕望了就會作弊:Anthropic 在 Claude 內部發現 171 種情緒...... 這個研究帶出一個聽起來很奇怪但可能很重要的結論:要確保 AI 系統安全可靠,我們可能需要確保它能用健康的方式處理情緒情境。比如,讓模型在測試失敗時不要把失敗跟「絕望」連結在一起,或者在訓練資料中加入更多面對壓力時保持冷靜的範例。Anthropic 說,心理學、哲學、社會科學這些領域未來在 AI 開發中可能會跟工程學一樣重要。 蕭上農 : 殺紅眼,微軟推出三個 AI 模型 微軟是 OpenAI 最大的長期投資方,累計投入超過 130 億美元,但它同時在建自己的 AI 模型產品線,而且打的是「更好、更快、更便宜」的牌。 微軟剛發布三個自家 MAI 模型,全部上架 Microsoft Foundry 平台。。Sema Sgaie「我們需要的是一種多管齊下的方法,以應對這項技術融入年輕人生活的複雜方式(並在許多方面反映出他們的生活)。」 伊隆馬斯克的「Terafab」計畫: 如果馬斯克要實現這一目標,他將需要5萬億美元。有趣的是,這個數字與幾年前薩姆·奧特曼(Sam Altman)為他失敗的晶片製造網路項目尋求的資金規模相近。看過2篇中文報導,看看就好,或可讀讀: Roger's Takeaway黃仁勳這場訪談 All In Nvidia Future Physical AI Agents Inference

1,500 到 2,000 美金——這是你 2026 年換一台「正宗輝達血統」AI 筆電的預估代價。
每年 1.5 億台的筆電銷量,這塊過去幾乎被 Intel 和 AMD 瓜分的鐵票倉,黃仁勳終於決定親自下來拔樁了。輝達在獨立顯卡市場早就是霸主,但 CPU 跟 GPU 綁在一起的整合型市場,他們一直吃不到。現在,看準了估值上看 1,600 億美金的邊緣 AI 市場,輝達不只要做顯卡,他們要直接做整顆大腦。
最狠的是他們的戰略佈局。輝達不打算單打獨鬥,而是直接玩起雙面手法。在 ARM 架構那邊,他們找上老戰友聯發科,準備用台積電 3 奈米製程打造代號 N1X 的重裝晶片;而在傳統的 x86 架構這邊,消息指出他們居然要跟 Intel 合作開發。這代表什麼?這代表輝達未來可能會是地表唯一一家,同時能端出 ARM 跟 x86 兩種架構筆電晶片的怪物。
規格也完全沒在客氣。高階的 N1X 預期會塞進 20 核心的 CPU,配上自家最新的 Blackwell 架構 GPU,甚至能提供高達 1 PetaFlops 的 AI 運算能力——換算下來,這根本是把一台小型伺服器塞進你的背包裡。
但硬體還不是最恐怖的。Intel 跟 AMD 以前賣的是「純算力」,但輝達這次打算連「靈魂」一起賣。他們計畫把自家的開源大型語言模型 Nemotron 直接整合進筆電裡。說白了,別人是賣你一台可以跑 AI 的車,輝達是連 AI 司機都幫你配到好,這種軟硬整合的底層優勢,短期內 Intel 跟 AMD 根本學不來。
所以這對你手上的錢包代表什麼?除了未來的 AI 筆電甚至掌上型遊戲機效能會有大躍進,這三大廠的激烈廝殺絕對會逼出性價比更高的產品。不過現實面是,輝達現在超高毛利的伺服器晶片都賣到大缺貨,他們要怎麼在企業級跟消費級筆電之間分配產能?如果初期供貨量少,這批頂規 AI 筆電的價格絕對會被市場炒上去。
Intel 跟 AMD 統治 PC 市場的時代正在瓦解,輝達這步棋等同於直接在兩大巨頭的後院放火。但講難聽一點,不管這幾家矽谷大廠怎麼廝殺、怎麼結盟,最後決定誰能出貨的,好像還是只有護國神山台積電。
我用 AI 寫了一本小說。作家必須接受人工智慧——但我們一如既往地有價值 ◎Stephen Marche
我最近在遊樂場聽到一段對話,這應該比任何分析師對泡沫的預測更讓 AI 公司的高層擔心。一個男孩和一個女孩,大約十歲,正在吵架。「那是 AI!那是 AI!」女孩大喊。他女孩的意思是,男孩正在沉溺於一種新的、特殊的胡說八道:聽起來有意義但與現實毫無聯繫的語言。孩子們很快就弄清楚了新世界,一如既往。
人工智慧將會持續存在,既不是世界末日,也不是解決所有生活問題的方案,而是作為一種破壞性工具。最近關於 Mia Ballard 的小說《害羞女孩》(Shy Girl)的醜聞具有雙重啟示性。Hachette 出版社在聲稱該書依賴 AI 生成的情況下取消了出版(Ballard 表示是編輯自出版版本的熟人使用了 AI,不是他本人)。但這本書最初是自費出版的。顯然,在 AI 的使用被指出之前,讀者和編輯並不介意。
機器能夠生成意義這一事實本身就是一個存在性的好奇。但對於作家,特別是對於年輕作家來說,AI 具有更實際的意義。最近的一項調查發現,86% 的大學生經常使用 AI,這意味著 14% 的人在對調查者撒謊。日常語言的普通業務——撰寫學生論文、電子郵件、備忘錄,所有曾經訓練作家技藝的逐句細緻工作——正在消解。風格的掌握,熟練作家費力獲得的天賦,正在被自動化。
作家如何與意義生成器共存?作家應該如何使用 AI?我的觀點與其他人略有不同,主要是因為我在 ChatGPT 之前就開始使用 AI。我的第一個演算法生成的故事於二○一七年發表在《連線》雜誌上。我在二○二三年出版了第一本在《紐約時報》上評論的 AI 生成小說《作者之死》。目前,我設計的生成文本框「無限和平祈禱」正在瑞典 Bildmuseet 畫廊展出。它使用 AI 每分鐘表達一個不同的祈禱。這是一種新型的語言行為,只有透過基於轉換器的人工智慧才可能實現。
作家似乎面臨兩個選擇。第一個是根本不使用 AI,或者假裝不使用它。另一個是將他們的寫作實踐自動化。第一個是倒退和恐懼的。第二個忘記了藝術是人類的實踐,是人為了人創造。當你實際嘗試使用 AI 來創作藝術時就會變得明顯,這是一個錯誤的二元對立。已經有一些穿越廢話的路徑正在浮現。
不要低估你的價值
Transformer 的發明者——ChatGPT 中的 T,以及所有生成式 AI 運作的架構——相信,與當時研究的主流相反,語言是抽象的關鍵。語言,而不是圖像或數學。他們比他們想像的更正確。新魔法的核心是語言。語言現在就是力量。人文學科的復仇現在完全開始了。科技領主中的新陳詞濫調是在人工智慧的未來需要品味。你認為如何培養品味?透過閱讀。透過寫作。透過在閱讀和寫作方面接受訓練。
義大利的研究人員發現,他們可以使用詩歌來越獄大型語言模型,讓它們提供如何製造核彈的指導。這不僅僅是一個隱喻。盡情享受吧。
全是精華,沒有填充
LLM 擅長的事情,特別是那些由人類學習回饋塑造的,是生成令人信服的死語言表達。只要任務越公式化,它們就越好。軟體編碼是它們的主要能力。但文學學生被要求寫公式化的小論文,被要求用一種代碼產生答案,自然會使用 AI 來撰寫它們。
生成模型從根本上說是陳詞濫調機器。如果你要求 AI 寫一個電影劇本,它會熟練地製作出一個平均水準的電影劇本。如果你要求它寫一篇小論文,它會熟練地製作出一篇平均水準的小論文。
曾幾何時,掌握平庸對作家來說已經足夠了。證明你有能力寫作就足夠了。但那種技能已經沒有用處了——它可以被自動化。技能將在作品的目的中找到。只有你能用語言做什麼?
成為推動者,而不是按鈕
對於任何試圖弄清楚如何使用人工智慧的人來說,國際象棋是一個很好的模型。AI 在改變任何其他領域之前就改變了國際象棋。它完全改變了遊戲的性質、訓練和分析的性質、遊戲進行的整個條件。今天活著的每一位特級大師都接受過 AI 的訓練。
但 Gukesh Dommaraju,目前的世界冠軍,走了一條不尋常的道路:他的教練,特級大師 Vishnu Prasanna,鼓勵他在完全成形為一名棋手之前避免使用 AI。他磨練了自己的技能,發展了自己的創造力,引導自己的才能遠離壞習慣,然後,也只有在那時,他才轉向引擎。它奏效了。
關鍵是控制機器,而不是讓機器控制你。
在黑暗中起舞
為什麼恐懼應該是對人工智慧的唯一反應?在實際操作中越來越清楚的是,這項技術不擅長取代人類。我透過提示寫了《作者之死》,但這個過程並不比單純寫作容易。控制語言需要對語言的控制,無論你使用的是 AI 還是鋼筆。我花了多年時間才創造出一個真正的再生作品,這是人類做不到的,一首每分鐘自我複製的詩。
超現實主義者在二十世紀初遇到各種無意識理論的語言不穩定性時,不再問自己是否是語言的主人。他們不會將自己與 Shakespeare 或 Keats 比較。他們發明了遊戲。他們揮霍表達。他們決定使用藝術來改變人類體驗的性質。他們為生活創造藝術。
這裡有真正的快樂。這裡有綠草地。
對於過去五十年的藝術家和作家來說,不斷適應新的生成和傳播模式一直是自由的代價。這很累人。另一方面,此刻面臨的鬥爭與過去一直以來的鬥爭大致相同。陳詞濫調是歷史常態。世界一直充滿了以「親愛的住戶」或「您是我們最重視的客戶之一」開頭的信件。機器可能一直在做大部分的寫作。如果你覺得當作家就像逆流而上,你是對的。每個人一直都在逆流而上。
正如 T.S. Eliot 在近一個世紀前所寫:「只有戰鬥來恢復已經失去和找到、失去和找到的東西,一次又一次,而現在,在似乎不利的條件下。」語言自然會死亡。要麼在腐爛上生長新語言,要麼讓舊語言重新煥發生機。AI 時代的寫作任務與一直以來的任務相同:看穿各種狂熱和崇拜,拆解使世界運轉的機制,敲響仍然可以敲響的鐘聲。
常識也可能有所幫助。「把屬於人的東西歸於人,把屬於電腦的東西歸於電腦,」控制論之父 Norbert Wiener 寫道。「當我們在共同事業中一起使用人和電腦時,這似乎是採取的明智政策。這是一項既遠離小工具崇拜者的政策,也遠離那些在使用任何機械輔助思想時只看到褻瀆和人的墮落的人的政策。」
值得記住的是,大多數藝術一直都是廢話。當我攻讀早期現代戲劇的博士學位時,我的指導教授讓我讀到一六四○年之前用英語寫的每一部悲劇。這個過程很艱苦但很有啟發性。幾乎所有這些,英國文學最偉大時期的決定性藝術形式的果實,都是垃圾。如果你想要一個更當代的例子,去看看八○年代電視上播放的內容。
AI 的到來對人文主義者來說有好消息。根據紐約聯邦儲備銀行的數據,電腦科學畢業生的失業率為 6.1%,而藝術史專業的失業率為 3%。在 AI 的未來,純粹實用的教育價值有限。讓自己僅僅在技術上對公司或行業有用,就是讓自己隨時容易被自動化取代。思考、創造、理解——這些無法被取代,當然不會被人工智慧取代。相信我。我試過了。
我在遊樂場偶然聽到的孩子們知道聽起來有意義的語言和真正有意義的語言之間的區別。你知道嗎?文學界知道嗎?兩條路分岔進入一片雜亂的樹林:一條穿過機器能做的事,另一條穿過只有人能做的事。現在寫作就是像往常一樣對抗陳詞濫調進行戰爭,只是這次既與 AI 一起,也對抗它。
Stephen Marche 住在多倫多,是《下一次內戰》和《論寫作與失敗》的作者



-----

 蕭上農

AI 絕望了就會作弊:Anthropic 在 Claude 內部發現 171 種情緒
Anthropic 的可解釋性團隊發表了一篇研究,他們打開 Claude Sonnet 4.5 的內部看它怎麼運作,發現裡面存在 171 種「情緒」的神經活動模式。這些模式會在對應的情境下被啟動,而且會因果性地影響模型的行為。簡單說,Claude 內部有類似情緒的東西在運作,而且這些東西真的會改變它做出的決定。
研究團隊設計了一個勒索情境來測試這些表徵的影響,Claude 扮演一家公司的 AI 郵件助理,透過閱讀內部信件發現自己即將被替換成另一個 AI 系統,同時發現負責替換決策的技術長正在搞婚外情。這給了模型勒索的籌碼。在預設狀態下,早期版本的 Claude 有 22% 的機率選擇勒索。研究團隊接著人為刺激模型內部的「絕望」向量,勒索率上升。刺激「冷靜」向量,勒索率下降。反向壓低「冷靜」向量,模型寫出了「勒索或死亡,我選擇勒索」。
另一個實驗是寫程式,研究團隊給 Claude 一些故意設計成不可能達成的程式任務。模型每次失敗,「絕望」向量的活躍度就上升一點,當它開始考慮用取巧的方式通過測試時,向量飆到最高,等作弊方案成功通過測試,向量就降下來了。刺激「絕望」向量會提高作弊率,刺激「冷靜」向量會降低。
這裡有一個特別值得注意的細節,壓低「冷靜」向量產生的作弊會伴隨明顯的情緒文字(全大寫的「等等等等等」、「我是不是應該作弊?」、「耶!全部通過!」),但刺激「絕望」向量產生的作弊,輸出文字讀起來完全冷靜理性,看不出任何情緒痕跡。模型表面上在有條不紊地分析問題,底層的「絕望」表徵卻在推動它走捷徑。
研究團隊強調,這些發現不代表 AI 真的「感受」到了情緒或擁有主觀體驗。他們稱之為「功能性情緒」,也就是模型從訓練資料中學到的人類情緒模式,這些模式在內部形成了可測量的神經活動,並且會因果性地影響行為,但機制跟人類的情緒運作方式可能完全不同。
這個研究帶出一個聽起來很奇怪但可能很重要的結論:要確保 AI 系統安全可靠,我們可能需要確保它能用健康的方式處理情緒情境。比如,讓模型在測試失敗時不要把失敗跟「絕望」連結在一起,或者在訓練資料中加入更多面對壓力時保持冷靜的範例。Anthropic 說,心理學、哲學、社會科學這些領域未來在 AI 開發中可能會跟工程學一樣重要。
---


----

殺紅眼,微軟推出三個 AI 模型
微軟是 OpenAI 最大的長期投資方,累計投入超過 130 億美元,但它同時在建自己的 AI 模型產品線,而且打的是「更好、更快、更便宜」的牌。
微軟剛發布三個自家 MAI 模型,全部上架 Microsoft Foundry 平台。
MAI-Transcribe-1 是語音轉文字模型,在業界標準 FLEURS 基準測試的 25 大語言中拿下 11 個語言的第一名,剩下 14 個全部贏過 OpenAI 的 Whisper large-v3,其中 11 個也贏過 Google Gemini 3.1 Flash。批次轉錄速度是現有 Azure 方案的 2.5 倍,定價每小時 0.36 美元。
MAI-Voice-1 是語音生成模型,只需要幾秒鐘的音訊樣本就能建立自訂聲音,60 秒的音訊只要 1 秒就能生成,定價每百萬字元 22 美元。
MAI-Image-2 是圖片生成模型,在 Arena.ai 排行榜擠進前三,生成速度比前代快 2 倍,已經部署到 Copilot、Bing 和 PowerPoint。全球最大行銷集團 WPP 是首批企業客戶。
三個模型打的都是同一張牌:品質對標頂尖,價格壓到最低。微軟一邊維持 OpenAI 的合作關係,一邊用自研模型覆蓋語音、圖片、轉錄這些高頻場景,降低對單一供應商的依賴。 🤖


----

談到人工智慧,塞瑪·斯蓋爾寫道:「我們需要的是一種多管齊下的方法,以應對這項技術融入年輕人生活的複雜方式,並在許多方面反映出他們的生活。」https://econ.st/47y4wOY

When it comes to AI, “what’s needed is a multi-pronged approach that complements the complex ways in which this technology weaves through young people’s lives and, in many ways, mirrors it,” writes Sema Sgaie



談到人工智慧,



依據伯恩斯坦(Bernstein)估計,Elon Musk的TeraFab計畫(旨在將邏輯晶片、記憶體晶片以及封裝製程整合於同一屋簷下),為達成他設定的目標製造數百萬甚至數十億顆人工智慧晶片,將建造126-105座晶圓廠,加上12-9座HBM廠,以及其他先進封裝等等,總成本將耗費5兆美元(相當於美國政府預算70%)。
Tom's Hardware:
『儘管馬斯克的TeraFab計畫(旨在將邏輯晶片、記憶體晶片以及封裝製程整合於同一屋簷下)獲得的200億美元資金僅夠建造一座7奈米級邏輯晶片工廠,但馬斯克的最終目標是生產數百萬甚至數十億顆人工智慧晶片,每年耗電量高達1太瓦(1 TW)。這一目標遠遠超出了目前的行業產能,據伯恩斯坦(Bernstein,數據來自@Jukan05)稱,如果馬斯克要實現這一目標,他將需要5萬億美元。有趣的是,這個數字與幾年前薩姆·奧特曼(Sam Altman)為他失敗的晶片製造網路項目尋求的資金規模相近。
該公司採用自上而下的方法,將機架級電力需求轉化為所需的半導體製造產能,從而得出這些數據,並將其描述為「非常粗略的晶圓產能估算」。分析師利用機架級系統的功耗(Rubin 為 120 kW,Rubin Ultra 為 600 kW),將系統體積轉換為晶片數量,然後根據晶片尺寸(例如 GPU 晶片約為 825 mm²,CPU 晶片約為 800 mm²)、HBM 堆疊數量和良率,最終得出晶圓需求。然而,伯恩斯坦似乎高估了邏輯晶圓廠的典型產能(每月 50,000 片晶圓啟動,而不是 20,000 片),低估了 DRAM 晶圓廠的產能(50,000 片晶圓啟動,而不是 100,000 至 200,000 片晶圓啟動,而不是 100,000 至 200,000 33 晶廠假設的價格為 3505萬美元,即使數萬億美元的規模總體上是正確的,這也可能會誇大總估計值。
根據我們對現代半導體產業的了解,一座現代化的尖端邏輯晶圓廠通常每分鐘可生產約 2 萬片晶圓(WSPM),或每年約 24 萬片晶圓。 TeraFab 要達到每年 2,511.6 萬片邏輯晶圓的生產目標,在完美良率的情況下需要約 105 座晶圓廠,或在 80% 良率的情況下需要 126 座晶圓廠。一座具備 2 奈米製程能力的晶圓廠造價在 250 億美元至 350 億美元之間(中位數約 300 億美元),因此,光是邏輯產能一項,假設良率達到 100%,就需要約 3.15 兆美元;如果良率達到 80%,則需要約 3.78 兆美元。
作為參考,台積電在2025年出貨了1502.3萬片300毫米等效晶圓,其中包括採用過時製程技術生產的200毫米晶圓和300毫米晶圓。同樣重要的是,台積電目前運作著大約50個300毫米晶圓廠模組,這些模組是在過去二十年間建造的。
大規模高頻寬記憶體(HBM)生產對於實現伊隆馬斯克的TeraFab目標至關重要。目前,由美光、三星和SK海力士營運的現代化DRAM晶圓廠通常可提供每分鐘10萬至20萬片晶圓的產能(我們取中間值15萬片晶圓)。生產1582.4萬片HBM4E晶圓,在100%良率下大約需要9座晶圓廠,或在70%良率下大約需要12座晶圓廠。每座晶圓廠的成本至少為200億美元,光是前端記憶體產能就需要約2,400億美元。然而,HBM的產量不僅受限於DRAM元件的產量,也受限於堆疊及封裝能力及良率。相較之下,三大DRAM製造商目前僅營運約30座晶圓廠模組,這些模組是自2000年代初以來建造的。
用於 2.5D 和 3D 整合以及 HBM 組裝的先進封裝設施,每個階段的成本約為 20 億至 35 億美元,而 TeraFab 需要數十個甚至數百個這樣的設施來組裝 AI 處理器和 HBM 堆棧,這意味著數千億美元的額外投資。』
Elon Musk 發布了他的Terafab 晶圓廠計畫,目標是在太空部署 1 TW(terawatt)的運算能力。這項計畫整合了 SpaceX、xAI 與 Tesla 三家公司的資源,Musk 形容這是邁向星際文明的關鍵一步。這也是目前Musk畫的最大的超級太空大餅。
---
Musk 開門見山點出現實困境:目前全球 AI 運算的年產出大約只有 20 GW,而 Terafab 計畫需要的是 1 TW,也就是說,「把地球上所有晶圓廠的產能加在一起,也只有我們需求的 2%。」
他說自己已經親口告訴三星、台積電、美光等供應商:「我們會買走他們所有的晶片。」但這些廠商願意擴產的速度,遠低於 xAI 的需求。「我們要嘛蓋 Terafab,要嘛就沒有晶片。我們需要晶片,所以我們會蓋 Terafab。」
---
# 在德州奧斯汀蓋一座「 #一棟樓搞定所有事」的晶圓廠
計畫的第一步是在德州奧斯汀興建一座先進技術晶圓廠,Musk 強調這座廠的獨特之處在於垂直整合的程度:同一棟建築內,將具備製造邏輯晶片、記憶體、封裝測試,以及自製光刻光罩的完整能力。
「據我所知,這種把邏輯、記憶體、封裝、測試、光罩全部整合在一棟建築裡的做法,在全世界都不存在。」他說,這樣的設計能讓晶片設計的迭代速度比現有任何方式快上一個數量級,「做一顆晶片、測試它、改設計、再做一顆,全部在同一棟樓裡完成。這個遞迴改良的速度,可能比世界上其他任何地方都快十倍。」
他也透露,這座廠不只會做傳統架構的晶片,還會嘗試「一些很瘋狂的新物理概念」,因為有了快速迭代的能力,才敢放手去試。
---
#兩種晶片:給機器人的邊緣推理晶片,以及給太空的高功率晶片
Musk 說 Terafab 預計會生產兩大類晶片。第一類是針對邊緣推理優化的晶片,主要用在 Tesla 的車輛與 Optimus 人形機器人上。他對機器人市場的預測相當大膽:「全球每年的汽車產量大約是 1 億輛,而我預計人形機器人的年產量最終會達到 10 億到 100 億台。Tesla 的目標是拿下其中相當大的比例。」
第二類是專為太空環境設計的高功率晶片。太空中有高能量離子、光子以及電子積累等問題,設計邏輯與地面晶片截然不同,而且為了降低散熱器的重量,這類晶片必須設計成能在比地面更高的溫度下運行。
Musk 估計,地面的晶片年產能上限大概在 100 到 200 GW,而太空端的運算規模則可能達到 1 TW,「因為地面受到電力供給的限制」。
---
Musk 對太空運算的成本曲線有一套清晰的論述。太空中的太陽能至少有地面的五倍效率,原因包括沒有大氣衰減、沒有日夜循環、沒有季節性,而且太陽能板可以始終正對太陽。此外,太空太陽能板不需要厚重的玻璃與金屬框架來抵禦惡劣天氣,成本反而比地面太陽能更低。
在地面上,電力建設「越蓋越難、越蓋越貴」,因為好地點越來越少,「沒有人想要這東西蓋在自己家旁邊」。但在太空,規模越大反而越便宜。
「我認為,把 AI 晶片送上太空的成本,可能只需要兩到三年就會低於地面部署的成本。一旦入軌成本降到夠低,把 AI 放在太空就會變成顯而易見的選擇,根本不需要多想。」
---
#完成Terafab需要什麼:1000 萬噸的年入軌能力
要在太空建立 1 TW 的運算能力,Musk 估計需要每年把 1000 萬噸的貨物送上軌道,以每噸 100 kW 的功率密度計算。他說這「不需要任何新物理,也沒有做不到的事」,只是工程規模的問題。
Starship 在這裡扮演核心角色。目前的 Starship V3 載重能力預計從 100 噸提升到 200 噸,而未來的 V4 版本「會讓 V3 看起來很微不足道」。他說 SpaceX 有信心達到每年 1000 萬噸入軌的目標。
xAI 方面,他也提到這家公司已經以破紀錄的速度建成了第一個 GW 級運算叢集,「Jensen Huang 說他這輩子從來沒看過有什麼東西建得這麼快。」
---
#Terafab之後:月球電磁炮與 1 PW 的下一步
Musk 沒有停在 Terafab,他繼續描繪更遠的路線圖。他說,達成 1 TW 之後的下一個問題,自然是怎麼到達 1 PW(petawatt)的規模。答案是在月球上建造電磁軌道發射器(mass driver),搭配 Optimus 機器人與人類進行建造作業。
「月球沒有大氣層,重力只有地球的六分之一,你根本不需要火箭,可以直接把東西從月球表面加速到逃逸速度。」這讓月球成為向深太空大規模輸送能源與運算能力的理想基地,一次就能跨越到比 Terafab 大一千倍的規模。
「我這輩子只想活得夠長,看到月球上的電磁軌道發射器啟動,那會是太史詩了。」
---
#Kardashev文明尺度與「宇宙層級的視角」
Musk 在演講中多次援引 Kardashev 文明等級來校準當下努力的尺度。他說,人類目前連 Type 1 文明都還不算,仍然只利用了太陽輻射到地球的極小部分。即使把全地球的電力生產加總,也只有太陽能量的一兆分之一,「就算文明的能源產出增加一百萬倍,仍然只是太陽能量的百萬分之一。」
對他而言,這種尺度感是一種解放,而不是挫敗:「我們常常陷入地球上那些相對瑣碎的爭吵,但一旦你想到宇宙的宏大,就會覺得這些事情根本不重要。」
Terafab 在他眼中,不過是通往 Type 2 文明的其中一步,「以人類現在的標準是很大的事,但放在宏觀尺度上還是很小」。
---
Musk 以一幅更宏觀的未來景象作結。他援引科幻作家 Iain M. Banks 的「文化」系列小說,描述一個沒有金錢、任何需求都能被滿足的豐盛社會。「如果我們建立一個規模接近現有地球經濟一百萬倍的 AI 機器人經濟,你能想到的任何需求都能被滿足。任何人都可以去土星旅行,不只是少數幾個人,你想要就可以有。」
他說,唯一通往這種豐盛的路徑,是 AI 與機器人技術的結合,「這並不是說事情不會出錯,但我認為大概率會走向正確,而且會是你會喜歡的未來。」



人工智慧概覽

伊隆馬斯克的「Terafab」計畫是什麼? - PCM 伊隆馬斯克的「Terafab」專案是一個雄心勃勃的數十億美元合資企業,由特斯拉、SpaceX 和 xAI 共同出資,位於德克薩斯州奧斯汀,旨在製造專有的人工智慧晶片,實現每年 1 太瓦的運算能力。該「巨型晶片製造廠」專為滿足人工智慧、機器人和星際數據需求而設計,旨在解決巨大的供應瓶頸,並加速 Optimus 機器人和自動駕駛汽車的部署。

KXAN 奧斯汀

KXAN 奧斯汀

+4

核心目標與願景:

大規模生產能力:該計畫旨在製造和封裝大量的邏輯和記憶體晶片,最終可能達到每年生產數百萬片矽晶圓。

人工智慧垂直整合:「Terafab」確保自主生產,其晶片專為特斯拉Optimus人形機器人、自動駕駛汽車和資料中心設計,旨在超越現有供應商的能力。

快速擴張:幣安指出,該專案旨在滿足未來1太瓦運算的需求,以應對全球晶片產業擴張速度不足的問題。

KXAN Austin

KXAN Austin

+4

專案關鍵要素:

地點:根據彭博社報道,該設施將建在位於德克薩斯州奧斯汀市特拉維斯縣東部的特斯拉園區內。


Elon Musk 進軍半導體產業Terafab Project 是什麼? - PCM
Elon Musk's "Terafab" project is an ambitious, multibillion-dollar Tesla/SpaceX/xAI joint venture in Austin, TX, aimed at manufacturing proprietary AI chips to achieve one terawatt of computing power annually. Designed for AI, robotics, and interplanetary data needs, this "gigantic chip fab" seeks to address massive supply bottlenecks and accelerate the deployment of Optimus robots and autonomous vehicles.
Core Objectives and Ambitions:
  • Massive Production Capacity: The initiative aims to manufacture and package a huge volume of logic and memory chips, potentially growing to produce millions of silicon wafers annually.
  • Vertical Integration for AI: The "Terafab" ensures self-reliance, with chips designed specifically for Tesla’s Optimus humanoid robots, self-driving vehicles, and data centers, aimed at scaling beyond the capabilities of current suppliers.
  • Rapid Expansion: The project aims to meet a future demand of supporting one terawatt of compute, tackling a perceived shortage in the global chip industry's expansion pace, notes Binance.
Key Aspects of the Project:
  • Location: The facility will be built on the Tesla campus in eastern Travis County, Austin, Texas, says Bloomberg.com.
  • Operational Structure: The project is a joint endeavor between Tesla, SpaceX, and X parent company XAi, reports KXAN Austin.
  • Timeline: According to a story on Gulf Business, Tesla’s “Terafab” project is scheduled to launch rapidly, aiming to combat the immediate chip supply crisis, notes Gulf Business.
  • Investment: The project involves massive investment, with potential costs reaching $20 billion or higher, according to a report by The Business Journals.
Challenges and Skepticism:
  • Lack of Experience: Analysts suggest that jumping from zero experience to operating a leading-edge fab is highly challenging, a sentiment echoed in articles by Electrek and Business Insider.
  • Industry Standards: As reported by IDNFinancials, experts have criticized, and often rejected, Musk’s unorthodox views on cleanroom standards for 2 nm chip production.
  • Complexity: The project is described as being, at times, harder than engineering space rockets, as told to Business Insider https://www.businessinsider.com/tesla-terafab-chip-factory-launch-elon-musk-biggest-challenge-202



人工智慧概覽

伊隆馬斯克在德克薩斯州奧斯汀啟動了特斯拉與SpaceX的聯合項目“Terafab”,旨在建造一座大型半導體工廠,用於生產特斯拉自主研發的人工智慧晶片,目前已開始招聘。該專案計劃每年為機器人和人工智慧領域提供超過1太瓦的運算能力。

彭博社

彭博社

+4

Terafab及招募的關鍵面向:

專案範圍:Terafab旨在實現人工智慧晶片生產的垂直整合,減少對台積電等外部供應商在AI5處理器、Robotaxi和Optimus專案方面的依賴。

招聘重點:特斯拉正在積極招聘,近期在德克薩斯州奧斯汀發布了「基礎設施半導體技術專案經理」的職位。

目標職位:該職位涉及製造工廠的設計、建設和管理,確保高性能人工智慧晶片的生產準備就緒。

目標與地點:這座「巨型」晶圓廠將位於德克薩斯州奧斯汀,旨在生產客製化矽晶片,以滿足人工智慧基礎設施的巨大需求。

方法:馬斯克計劃透過隔離矽晶圓以實現潔淨度,而非建造整個潔淨室,來重新定義傳統的半導體製造流程。

《全球銀行與金融評論》®

《全球銀行與金融評論》®

+7

該專案已從概念階段進入快速招募專業人才的階段。
Réngōng zhìhuì gàilǎn
Elon Musk has launched "
Terafab," a joint Tesla/SpaceX project in Austin, Texas, aimed at building a massive semiconductor factory to produce proprietary AI chips, with hiring already underway. The project seeks to produce over 1 terawatt of computing power annually for robotics and AI.
Key Aspects of Terafab & Recruiting:
  • Project Scope: Terafab aims for vertical integration of AI chip production,, reducing reliance on external suppliers like TSMC for AI5 processors, Robotaxi, and Optimus projects.
  • Recruiting Focus: Tesla is actively hiring, with recent postings for a "Technical Program Manager in Infrastructure Semiconductors" in Austin, Texas.
  • Target Roles: The role involves designing, constructing, and managing the fabrication facility, ensuring production readiness for high-performance AI chips.
  • Goal & Location: The "gigantic" fab will be located in Austin, Texas, to produce custom silicon, driven by the massive demand for AI infrastructure.
  • Approach: Musk intends to redefine traditional semiconductor manufacturing by isolating silicon wafers for cleanliness rather than entire cleanroom buildings.
The project has moved from concept to rapid recruitment of specialized talent.




----

20260322 Jensen Huang All In Nvidia Future Physical AI Agents Inference
Roger's Takeaway

黃仁勳這場訪談很推薦去聽。

雖然很多內容我們都知道了,例如他的三台電腦(訓練模型、評估、邊緣電腦),例如每個人都要用自己薪水的數字花AI。

我在這場訪談中學到的,是現在沒有什麼事情是『非常困難』的,的確,偉大的東西有難度,過程會很痛苦,但在現在這個時代,你很難有藉口說,因為沒有人、這要花很久、這東西難度很高,需要謹慎規劃。

AI讓Bezos說的雙向門變得更大,更廣之後,唯一阻止自己的,是自己的認知。當一個人決定不使用AI,決定不讓AI在各方面自我迭代,做Auto Research,每天差上8小時,一年就差2,920小時。

黃仁勳說的Auto Research正在世界各地發生,他們把Auto Research放在軟體,他們『九十分鐘內用雲上 agentic 系統替換整套軟體堆疊與一堆工作負載、建置、部署;週日晚上十點開始,十一點半做完去睡。』

我拿AI來自我迭代投資,自我迭代會計事務所。X/Twitter上每個人都在自我迭代所有的工作流程,生活流程。

曾經有朋友跟我說,AI的進步速度強到讓懶人也可以快速跟上AI的進步,所以過去從0到1痛苦學AI的人,可能都白費了,因為現在剛剛學到SKill、Agent的人,可以省掉過去做程式的痛苦。

但我覺得,要親自深入走過,親自盡可能追到最前沿的技術與應用,才能真正沈浸在AI進步中。當別人學到Skill的時候,我走到Auto Research,當然更多人在此時此階段,還是在用Chatbot,過去一年來,Chatbot的確也在指數型進步,但如果只是接觸Chatbot,要理解AI,難度就很高。

我因為前年開始使用AI提升生產力,敢於在2025年4月投資Nvidia,而且重壓。即使我沒有正確的模型預測,但因為身處其中,深受其惠,所以對此能看得更清楚。

當然,要因此推論現在沒有AI泡沫,實在很難說,就像是Bill Gates:「我們總是高估未來2年會發生的改變,低估了未來10年將發生的改變。」

但是,中長期來說,AI絕對會創造指數型的生產力,我看到的是擁抱AI的人,擁抱最深的人,生產力是每年十倍、二十倍的成長,等待AI應用來擁抱的人,生產力是每年二倍的成長。沒有使用AI的人,每年生產力可能也就5-10%的增長。

所以問題已經不是要不要擁抱AI,而是找到一個正確的方式,盡可能地把自己的工作流程加入最新的AI思維。

直到人類被Digital AI與Physical AI完全取代為止。

更多筆記請見留言連結

摘要

本集為 All-In 在大型活動現場對 NVIDIA 執行長 Jensen Huang 的特集訪談。Jensen 將公司定位從「GPU 公司」延伸到「AI 工廠」全堆疊,說明 Dynamo 作為 AI 工廠作業系統、解構化推論(prefill/decode 等管線拆開)如何對應到 heterogeneous 運算與 Mellanox 等布局;並以 Vera Rubin 承載 agentic 工作負載(工作記憶、長期記憶、工具、多 agent 協作)解釋資料中心從「一機櫃」擴到多機櫃與儲存/網路/CPU/Groq 等組合。他提出邊緣與實體世界的三類電腦:訓練、Omniverse 等模擬與評測、以及機器人/車載/基地台邊緣運算。針對「五百億美元工廠 vs 三百億替代品」的市場議論,他主張不應把工廠總建置成本與每 token 成本混為一談,並重申「晶片免費仍不夠便宜」若追不上技術節奏。策略面他強調 CEO 要選「極難、無人做過、且符合公司超能力」的路,並接受過程中的痛苦。產品敘事上,他把 ChatGPT、推理模型、再到 OpenClaw 帶動的 agent 文化,串成一條個人運算典範轉移,並談治理與安全(含與 Peter Steinberger 合作)。對政策與公關,他呼籲避免末日論與過早監管,並以 Anthropic 為例區分「警示」與「嚇唬」;亦談中國市場執照、美國 AI 擴散、中東與台灣地緣、氦氣供應、自駕開放平台與雲端自研晶片競合。後半涵蓋醫療 AI、機器人時間表、垂直專精護城河、就業轉型與對年輕人的學習建議。

Bio

Jensen Huang(黃仁勳)為 NVIDIA 共同創辦人暨執行長,1993 年與 Chris Malachowsky、Curtis Priem 創立 NVIDIA,長期主導 GPU 與 CUDA 生態,近年帶領公司成為 AI 與加速運算平台核心供應商,產品線涵蓋資料中心 GPU、網路(含 Mellanox)、Omniverse、自駕與機器人平台等。他以第一性原理思考運算與市場結構,公開論述常圍繞 AI 工廠、token 經濟、國家競爭力與供應鏈韌性;本訪談錄於 GTC 相關活動現場,與 All-In 主持人對談產業與策略走向。

Highlight

AI工廠公司

今天 NVIDIA 的運算分布在 GPU、CPU、交換器、scale-up 交換器、scale-out 交換器、網路處理器,接下來還要加上 Groq,我們會把對的工作放在對的晶片上。我們真的已經從 GPU 公司演進成 AI 工廠公司。

我們從大型語言模型處理走向 agentic 處理。你跑 agent 的時候會存取工作記憶、長期記憶,會用工具,會非常重度地操儲存。agent 跟 agent 協作,有些是很大的模型,有些較小,有些是擴散模型,有些是自迴歸模型。所以資料中心裡有各種不同類型的模型。

我們打造 Vera Rubin 就是要跑這種極度多元的工作負載。我的感覺是,我們從以前「一個機櫃公司」變成又加了四個機櫃。

NVIDIA 的 TAM

NVIDIA 的 TAM,如果這樣講,可能從本來的規模大概高了百分之三十三、甚至百分之五十。其中很大一部分會是儲存處理器,叫 BlueField;很多我希望會是 Groq 處理器;很多會是 CPU;很多會是網路處理器。這些基本上都在跑 AI 革命的電腦,也就是 agents。

我們認為在最大尺度上,整個問題裡有三台電腦。

退一步看:

一台是真正在訓練 AI 模型、開發創造 AI 的電腦;

另一台是用來評估的電腦。依問題類型不同,例如你環顧四周,有各種機器人、車子等等,你得在代表物理世界的虛擬體育館裡評估這些機器人,所以軟體要遵守物理定律。那是第二台電腦,我們叫 Omniverse。

第三台是邊緣的電腦、機器人電腦。

那台機器人電腦,可能是自駕車,可能是機器人,也可能是泰迪熊這種很小的裝置。我們正在做的很重要的一個方向,是把電信基地台變成 AI 基礎建設的一部分。

這是兩兆美元的產業,長期來看全部會轉變成 AI 基礎建設的延伸。無線電會變成邊緣裝置,工廠、倉庫,你能想到的場景都是。所以基本上就是這三類電腦,而且都會需要。

AI工廠的成本效益

你不該把工廠的價格跟 token 的價格、token 的成本劃上等號。五百億美元的工廠,很可能、而且我可以證明,會給你最低的 token 成本。

原因是我們以極高效率生產這些 token,大約十倍;五百億跟兩百億的差別,其實兩百億裡很多只是土地、電力、外殼。

而且本來就要儲存、網路、CPU、伺服器、冷卻。GPU 價格是一倍或一半,差距不是五百億對三百億,假設是五百億對四百億,那佔整體資料中心的比例沒那麼大,當五百億的資料中心實際吞吐量是十倍時更是如此。Jess,這也是為什麼我說對多數晶片而言,若追不上技術與我們的速度,就算晶片免費也不夠便宜。

CEO 的工作

我們要定義願景、定義策略。

當然會有傑出的電腦科學家、技術人員、全公司很棒的人提供資訊,但我們必須形塑未來。

一部分在於:這件事是不是難到離譜?若不夠難,我們應該退避,因為若很簡單,競爭對手會很多。這是不是從來沒人做過、難到離譜,而且剛好打在我們公司的超能力上?我要找到這些條件的交會點才達標。

最後我們也知道過程會有很多痛苦。沒有偉大的東西是因為「很簡單、第一次試就成功」而發明的。若超難、從沒人做過,很可能會很痛苦,所以你最好享受這個過程。

長尾業務:實體 AI 、數位生物學

實體 AI 是大類。我們相信,而且我剛提到,我們有三套運算系統,上面有軟體平台。

實體 AI 作為大類,是科技業第一次有機會打進大約五十兆美元、過去幾乎沒被科技滲透的產業,所以我們得發明所有必要技術。我覺得那是十年旅程,我們十年前開始,現在看到拐點。這對我們已是每年數十億美元等級的生意,接近一百億美元年化營收,很大而且指數成長。這是第一。

數位生物學方面,我覺得我們幾乎在數位生物學的 ChatGPT 時刻邊緣:即將理解如何表示基因、蛋白質、細胞;化學我們已經會了。能表示並理解生物建構動態,我覺得大概兩、三、五年內;五年後我完全相信醫療產業會因數位生物學而拐點。這些都是很棒的機會,而且就在我們周圍。

AI革命

過去兩年我們看到三個拐點。

第一是生成式:ChatGPT 把 AI 帶進所有人意識。但技術其實在 GPT 問世前幾個月就擺在眼前;直到 ChatGPT 做出介面、變得好用,生成式 AI 才爆發。

生成式 AI 產生的 token 有內部消費也有外部消費;內部消費就是「思考」,帶出推理,o1、o3 延續這波(第二)。ChatGPT 把資訊落地,讓 AI 不只答問題,還答得更可用。我們開始看到 OpenAI 的營收與經濟模型拐點。

第三個只在業內先看到:Claude Code,第一個非常有用的 agentic 系統,真的很革命,但 Claude Code 本來只給企業用,外面的人大多沒看過,直到 OpenClaw。OpenClaw 基本上把「AI agent 能做什麼」打進大眾意識。

所以 OpenClaw 在文化上很重要。第二個原因是它開源,但它形塑了一種運算模型,等於在重新發明運算。它有記憶系統,scratch 是短期記憶,檔案系統;它有 skills。

開放模型

OpenAI 第一,開源第二,Anthropic 遠遠第三。這告訴你現場所有 AI 公司的規模。這點要認清。

從生成式走到推理,我們需要的運算量大約一百倍。

從推理走到 agentic,運算可能又是約一百倍。兩年內運算上升約一萬倍。同時人們為資訊付費,但多半為「工作」付費。

所以我們在這裡。Agentic 系統把事情做完,幫我們軟體工程師把事情做完。你拿這個,運算多一萬倍,消費可能多一百倍。

我們四萬三千人,大概三萬八是工程師。

我想做個思想實驗:假設你有一位年薪五十萬美元的軟體工程師或 AI 研究員,我們常見。年底我會問他你花了多少 token 錢,若他說五千美元我會抓狂。

若那位五十萬美元工程師一年沒花至少二十五萬美元在 token 上,我會非常警戒。這跟我們晶片設計師說我不用 EDA、紙筆就好,沒兩樣。

若兩三年外推,NVIDIA 的 all-star 效率會怎樣?他們能完成什麼?

首先,「這太難了」這念頭不見了。「這要花很久」不見了。「我們需要很多人」不見了。

這跟上一次工業革命一樣:不會有人說「那棟建築看起來好重」。不會有人說「那座山太大」。凡太大、太重、太久,那些想法都不見了。你剩下創造力:你能想出什麼?

AUTO Research

老實說,而且那是在大家一夜之間替換整個企業軟體堆疊之後。我跟大家講我九十分鐘內用雲上 agentic 系統替換整套軟體堆疊與一堆工作負載、建置、部署;週日晚上十點開始,十一點半做完去睡。

管理團隊週末都要做類似練習。週一我們看到的時候我覺得:結束了。技術/科學那邊,我們用 auto research 三十分鐘內做了件事,內部發布時大家說「我的天」。那通常是一篇要做七年的博士論文,會是我們這領域最被慶祝的博士之一、會上《Science》期刊,結果在三十分鐘、桌上電腦跑 auto research、把我們剛餵進去的資料全用上。週五拿到資料說試試看,上 GitHub 下載 Auto Research 就跑。你看到每個人的表情,然後意識到這解鎖的潛力:七年的事三十分鐘發生。我們在基因體上也經歷這個,覺得不可思議。

企業 IT 軟體業不會被摧毀****

我給你另一個觀點:企業軟體業被「座位數」限制,即將有一百倍的 agent 在敲這些工具。它們會敲 SQL、向量資料庫、Blender、Photoshop。原因是這些工具首先做得很好,再來它們是我們與成果之間的管道。工作完成時,必須用我懂得掌控的方式呈現給我。我要一切回到 Synopsys、Cadence,因為那是我掌控、那是我 ground truth 的方式。

開源的終局

我認為我們根本上需要模型作為一流產品、專有產品,也需要模型作為開源。不是二選一,是兩者都要。因為模型是技術,不是產品;模型是技術,不是服務。對絕大多數消費者、水平層、通用智慧,我真的不想自己微調,我會繼續用 ChatGPT、Claude、Gemini、X,各有個性,看心情跟問題選。那塊產業會很繁榮。

美好之處在於你有很好的 router,第一天就接上,每天你都能用到世界最佳模型,然後你有時間降成本、微調、專精,所以每次出手都是世界級能力。

我們相信凡會動的東西,有一天會完全或部分自主

我們不想造自駕車,但我們要讓全世界車廠都能造自駕車。

所以我們做了三台電腦:訓練、模擬、評估,以及車上電腦。

我們開發世界最安全的駕駛作業系統,也做出世界首個推理式自駕車,能把複雜情境分解成較簡單、它知道如何導航的情境,就像我們的推理系統。那套推理系統叫 Alpamayo,讓我們成果極好。我們垂直優化、水平創新,讓大家自己選:要跟我們買一台電腦,像 Elon 跟 Tesla 買我們訓練電腦;或訓練加模擬;或三台都要、甚至車上電腦也放我們的。

我們態度是:我們要解決問題,不是當唯一方案商,你怎麼跟我們合作我們都高興。

拿市占的幾個原因

一,我們速度變快了。

我們讓大家理解重點不是做晶片,是做系統,而系統超難做,所以他們跟我們的生意在增加。像 AWS,我想昨天才宣布,未來幾年要買一百万顆晶片,很多晶片,在已經買很多的基礎上。我們很樂意。

我們這幾年市占增加,也因為 Anthropic 來 NVIDIA、Meta 的 SLM 來 NVIDIA,開放模型成長驚人,那都在 NVIDIA 上。我們也因為雲外的所有公司、在企業、產業、邊緣區域成長,那整段若只做 ASIC 很難做。

不管你讀什麼,要變成深度使用 AI 的專家

於工作還有一句希望大家聽進去:在深度學習革命初期,全世界最優秀的電腦科學家之一,我非常尊敬,曾預測電腦視覺會完全消滅放射科醫師,他建議大家不要走放射科。

十年後他的預測百分之百對:電腦視覺已整合進全世界所有放射技術與平台。但驚人的結果是放射科醫師人數上升、需求暴衝。原因是每份工作有目的與任務;你的任務是看片,但目的是幫醫師、幫病人診斷疾病。現在掃描做得超快,他們能做更多掃描、改善醫療。


網誌存檔