人工智慧概覽
伊隆馬斯克的「Terafab」計畫是什麼? - PCM 伊隆馬斯克的「Terafab」專案是一個雄心勃勃的數十億美元合資企業,由特斯拉、SpaceX 和 xAI 共同出資,位於德克薩斯州奧斯汀,旨在製造專有的人工智慧晶片,實現每年 1 太瓦的運算能力。該「巨型晶片製造廠」專為滿足人工智慧、機器人和星際數據需求而設計,旨在解決巨大的供應瓶頸,並加速 Optimus 機器人和自動駕駛汽車的部署。
KXAN 奧斯汀
KXAN 奧斯汀
+4
核心目標與願景:
大規模生產能力:該計畫旨在製造和封裝大量的邏輯和記憶體晶片,最終可能達到每年生產數百萬片矽晶圓。
人工智慧垂直整合:「Terafab」確保自主生產,其晶片專為特斯拉Optimus人形機器人、自動駕駛汽車和資料中心設計,旨在超越現有供應商的能力。
快速擴張:幣安指出,該專案旨在滿足未來1太瓦運算的需求,以應對全球晶片產業擴張速度不足的問題。
KXAN Austin
KXAN Austin
+4
專案關鍵要素:
地點:根據彭博社報道,該設施將建在位於德克薩斯州奧斯汀市特拉維斯縣東部的特斯拉園區內。
- Massive Production Capacity: The initiative aims to manufacture and package a huge volume of logic and memory chips, potentially growing to produce millions of silicon wafers annually.
- Vertical Integration for AI: The "Terafab" ensures self-reliance, with chips designed specifically for Tesla’s Optimus humanoid robots, self-driving vehicles, and data centers, aimed at scaling beyond the capabilities of current suppliers.
- Rapid Expansion: The project aims to meet a future demand of supporting one terawatt of compute, tackling a perceived shortage in the global chip industry's expansion pace, notes Binance.
- Location: The facility will be built on the Tesla campus in eastern Travis County, Austin, Texas, says Bloomberg.com.
- Operational Structure: The project is a joint endeavor between Tesla, SpaceX, and X parent company XAi, reports KXAN Austin.
- Timeline: According to a story on Gulf Business, Tesla’s “Terafab” project is scheduled to launch rapidly, aiming to combat the immediate chip supply crisis, notes Gulf Business.
- Investment: The project involves massive investment, with potential costs reaching $20 billion or higher, according to a report by The Business Journals.
- Lack of Experience: Analysts suggest that jumping from zero experience to operating a leading-edge fab is highly challenging, a sentiment echoed in articles by Electrek and Business Insider.
- Industry Standards: As reported by IDNFinancials, experts have criticized, and often rejected, Musk’s unorthodox views on cleanroom standards for 2 nm chip production.
- Complexity: The project is described as being, at times, harder than engineering space rockets, as told to Business Insider https://www.businessinsider.com/tesla-terafab-chip-factory-launch-elon-musk-biggest-challenge-202
人工智慧概覽
伊隆馬斯克在德克薩斯州奧斯汀啟動了特斯拉與SpaceX的聯合項目“Terafab”,旨在建造一座大型半導體工廠,用於生產特斯拉自主研發的人工智慧晶片,目前已開始招聘。該專案計劃每年為機器人和人工智慧領域提供超過1太瓦的運算能力。
彭博社
彭博社
+4
Terafab及招募的關鍵面向:
專案範圍:Terafab旨在實現人工智慧晶片生產的垂直整合,減少對台積電等外部供應商在AI5處理器、Robotaxi和Optimus專案方面的依賴。
招聘重點:特斯拉正在積極招聘,近期在德克薩斯州奧斯汀發布了「基礎設施半導體技術專案經理」的職位。
目標職位:該職位涉及製造工廠的設計、建設和管理,確保高性能人工智慧晶片的生產準備就緒。
目標與地點:這座「巨型」晶圓廠將位於德克薩斯州奧斯汀,旨在生產客製化矽晶片,以滿足人工智慧基礎設施的巨大需求。
方法:馬斯克計劃透過隔離矽晶圓以實現潔淨度,而非建造整個潔淨室,來重新定義傳統的半導體製造流程。
《全球銀行與金融評論》®
《全球銀行與金融評論》®
+7
該專案已從概念階段進入快速招募專業人才的階段。Réngōng zhìhuì gàilǎn
- Project Scope: Terafab aims for vertical integration of AI chip production,, reducing reliance on external suppliers like TSMC for AI5 processors, Robotaxi, and Optimus projects.
- Recruiting Focus: Tesla is actively hiring, with recent postings for a "Technical Program Manager in Infrastructure Semiconductors" in Austin, Texas.
- Target Roles: The role involves designing, constructing, and managing the fabrication facility, ensuring production readiness for high-performance AI chips.
- Goal & Location: The "gigantic" fab will be located in Austin, Texas, to produce custom silicon, driven by the massive demand for AI infrastructure.
- Approach: Musk intends to redefine traditional semiconductor manufacturing by isolating silicon wafers for cleanliness rather than entire cleanroom buildings.
----
黃仁勳這場訪談很推薦去聽。
雖然很多內容我們都知道了,例如他的三台電腦(訓練模型、評估、邊緣電腦),例如每個人都要用自己薪水的數字花AI。
我在這場訪談中學到的,是現在沒有什麼事情是『非常困難』的,的確,偉大的東西有難度,過程會很痛苦,但在現在這個時代,你很難有藉口說,因為沒有人、這要花很久、這東西難度很高,需要謹慎規劃。
AI讓Bezos說的雙向門變得更大,更廣之後,唯一阻止自己的,是自己的認知。當一個人決定不使用AI,決定不讓AI在各方面自我迭代,做Auto Research,每天差上8小時,一年就差2,920小時。
黃仁勳說的Auto Research正在世界各地發生,他們把Auto Research放在軟體,他們『九十分鐘內用雲上 agentic 系統替換整套軟體堆疊與一堆工作負載、建置、部署;週日晚上十點開始,十一點半做完去睡。』
我拿AI來自我迭代投資,自我迭代會計事務所。X/Twitter上每個人都在自我迭代所有的工作流程,生活流程。
曾經有朋友跟我說,AI的進步速度強到讓懶人也可以快速跟上AI的進步,所以過去從0到1痛苦學AI的人,可能都白費了,因為現在剛剛學到SKill、Agent的人,可以省掉過去做程式的痛苦。
但我覺得,要親自深入走過,親自盡可能追到最前沿的技術與應用,才能真正沈浸在AI進步中。當別人學到Skill的時候,我走到Auto Research,當然更多人在此時此階段,還是在用Chatbot,過去一年來,Chatbot的確也在指數型進步,但如果只是接觸Chatbot,要理解AI,難度就很高。
我因為前年開始使用AI提升生產力,敢於在2025年4月投資Nvidia,而且重壓。即使我沒有正確的模型預測,但因為身處其中,深受其惠,所以對此能看得更清楚。
當然,要因此推論現在沒有AI泡沫,實在很難說,就像是Bill Gates:「我們總是高估未來2年會發生的改變,低估了未來10年將發生的改變。」
但是,中長期來說,AI絕對會創造指數型的生產力,我看到的是擁抱AI的人,擁抱最深的人,生產力是每年十倍、二十倍的成長,等待AI應用來擁抱的人,生產力是每年二倍的成長。沒有使用AI的人,每年生產力可能也就5-10%的增長。
所以問題已經不是要不要擁抱AI,而是找到一個正確的方式,盡可能地把自己的工作流程加入最新的AI思維。
直到人類被Digital AI與Physical AI完全取代為止。
更多筆記請見留言連結
摘要
本集為 All-In 在大型活動現場對 NVIDIA 執行長 Jensen Huang 的特集訪談。Jensen 將公司定位從「GPU 公司」延伸到「AI 工廠」全堆疊,說明 Dynamo 作為 AI 工廠作業系統、解構化推論(prefill/decode 等管線拆開)如何對應到 heterogeneous 運算與 Mellanox 等布局;並以 Vera Rubin 承載 agentic 工作負載(工作記憶、長期記憶、工具、多 agent 協作)解釋資料中心從「一機櫃」擴到多機櫃與儲存/網路/CPU/Groq 等組合。他提出邊緣與實體世界的三類電腦:訓練、Omniverse 等模擬與評測、以及機器人/車載/基地台邊緣運算。針對「五百億美元工廠 vs 三百億替代品」的市場議論,他主張不應把工廠總建置成本與每 token 成本混為一談,並重申「晶片免費仍不夠便宜」若追不上技術節奏。策略面他強調 CEO 要選「極難、無人做過、且符合公司超能力」的路,並接受過程中的痛苦。產品敘事上,他把 ChatGPT、推理模型、再到 OpenClaw 帶動的 agent 文化,串成一條個人運算典範轉移,並談治理與安全(含與 Peter Steinberger 合作)。對政策與公關,他呼籲避免末日論與過早監管,並以 Anthropic 為例區分「警示」與「嚇唬」;亦談中國市場執照、美國 AI 擴散、中東與台灣地緣、氦氣供應、自駕開放平台與雲端自研晶片競合。後半涵蓋醫療 AI、機器人時間表、垂直專精護城河、就業轉型與對年輕人的學習建議。
Bio
Jensen Huang(黃仁勳)為 NVIDIA 共同創辦人暨執行長,1993 年與 Chris Malachowsky、Curtis Priem 創立 NVIDIA,長期主導 GPU 與 CUDA 生態,近年帶領公司成為 AI 與加速運算平台核心供應商,產品線涵蓋資料中心 GPU、網路(含 Mellanox)、Omniverse、自駕與機器人平台等。他以第一性原理思考運算與市場結構,公開論述常圍繞 AI 工廠、token 經濟、國家競爭力與供應鏈韌性;本訪談錄於 GTC 相關活動現場,與 All-In 主持人對談產業與策略走向。
Highlight
AI工廠公司
今天 NVIDIA 的運算分布在 GPU、CPU、交換器、scale-up 交換器、scale-out 交換器、網路處理器,接下來還要加上 Groq,我們會把對的工作放在對的晶片上。我們真的已經從 GPU 公司演進成 AI 工廠公司。
我們從大型語言模型處理走向 agentic 處理。你跑 agent 的時候會存取工作記憶、長期記憶,會用工具,會非常重度地操儲存。agent 跟 agent 協作,有些是很大的模型,有些較小,有些是擴散模型,有些是自迴歸模型。所以資料中心裡有各種不同類型的模型。
我們打造 Vera Rubin 就是要跑這種極度多元的工作負載。我的感覺是,我們從以前「一個機櫃公司」變成又加了四個機櫃。
NVIDIA 的 TAM
NVIDIA 的 TAM,如果這樣講,可能從本來的規模大概高了百分之三十三、甚至百分之五十。其中很大一部分會是儲存處理器,叫 BlueField;很多我希望會是 Groq 處理器;很多會是 CPU;很多會是網路處理器。這些基本上都在跑 AI 革命的電腦,也就是 agents。
我們認為在最大尺度上,整個問題裡有三台電腦。
退一步看:
一台是真正在訓練 AI 模型、開發創造 AI 的電腦;
另一台是用來評估的電腦。依問題類型不同,例如你環顧四周,有各種機器人、車子等等,你得在代表物理世界的虛擬體育館裡評估這些機器人,所以軟體要遵守物理定律。那是第二台電腦,我們叫 Omniverse。
第三台是邊緣的電腦、機器人電腦。
那台機器人電腦,可能是自駕車,可能是機器人,也可能是泰迪熊這種很小的裝置。我們正在做的很重要的一個方向,是把電信基地台變成 AI 基礎建設的一部分。
這是兩兆美元的產業,長期來看全部會轉變成 AI 基礎建設的延伸。無線電會變成邊緣裝置,工廠、倉庫,你能想到的場景都是。所以基本上就是這三類電腦,而且都會需要。
AI工廠的成本效益
你不該把工廠的價格跟 token 的價格、token 的成本劃上等號。五百億美元的工廠,很可能、而且我可以證明,會給你最低的 token 成本。
原因是我們以極高效率生產這些 token,大約十倍;五百億跟兩百億的差別,其實兩百億裡很多只是土地、電力、外殼。
而且本來就要儲存、網路、CPU、伺服器、冷卻。GPU 價格是一倍或一半,差距不是五百億對三百億,假設是五百億對四百億,那佔整體資料中心的比例沒那麼大,當五百億的資料中心實際吞吐量是十倍時更是如此。Jess,這也是為什麼我說對多數晶片而言,若追不上技術與我們的速度,就算晶片免費也不夠便宜。
CEO 的工作
我們要定義願景、定義策略。
當然會有傑出的電腦科學家、技術人員、全公司很棒的人提供資訊,但我們必須形塑未來。
一部分在於:這件事是不是難到離譜?若不夠難,我們應該退避,因為若很簡單,競爭對手會很多。這是不是從來沒人做過、難到離譜,而且剛好打在我們公司的超能力上?我要找到這些條件的交會點才達標。
最後我們也知道過程會有很多痛苦。沒有偉大的東西是因為「很簡單、第一次試就成功」而發明的。若超難、從沒人做過,很可能會很痛苦,所以你最好享受這個過程。
長尾業務:實體 AI 、數位生物學
實體 AI 是大類。我們相信,而且我剛提到,我們有三套運算系統,上面有軟體平台。
實體 AI 作為大類,是科技業第一次有機會打進大約五十兆美元、過去幾乎沒被科技滲透的產業,所以我們得發明所有必要技術。我覺得那是十年旅程,我們十年前開始,現在看到拐點。這對我們已是每年數十億美元等級的生意,接近一百億美元年化營收,很大而且指數成長。這是第一。
數位生物學方面,我覺得我們幾乎在數位生物學的 ChatGPT 時刻邊緣:即將理解如何表示基因、蛋白質、細胞;化學我們已經會了。能表示並理解生物建構動態,我覺得大概兩、三、五年內;五年後我完全相信醫療產業會因數位生物學而拐點。這些都是很棒的機會,而且就在我們周圍。
AI革命
過去兩年我們看到三個拐點。
第一是生成式:ChatGPT 把 AI 帶進所有人意識。但技術其實在 GPT 問世前幾個月就擺在眼前;直到 ChatGPT 做出介面、變得好用,生成式 AI 才爆發。
生成式 AI 產生的 token 有內部消費也有外部消費;內部消費就是「思考」,帶出推理,o1、o3 延續這波(第二)。ChatGPT 把資訊落地,讓 AI 不只答問題,還答得更可用。我們開始看到 OpenAI 的營收與經濟模型拐點。
第三個只在業內先看到:Claude Code,第一個非常有用的 agentic 系統,真的很革命,但 Claude Code 本來只給企業用,外面的人大多沒看過,直到 OpenClaw。OpenClaw 基本上把「AI agent 能做什麼」打進大眾意識。
所以 OpenClaw 在文化上很重要。第二個原因是它開源,但它形塑了一種運算模型,等於在重新發明運算。它有記憶系統,scratch 是短期記憶,檔案系統;它有 skills。
開放模型
OpenAI 第一,開源第二,Anthropic 遠遠第三。這告訴你現場所有 AI 公司的規模。這點要認清。
從生成式走到推理,我們需要的運算量大約一百倍。
從推理走到 agentic,運算可能又是約一百倍。兩年內運算上升約一萬倍。同時人們為資訊付費,但多半為「工作」付費。
所以我們在這裡。Agentic 系統把事情做完,幫我們軟體工程師把事情做完。你拿這個,運算多一萬倍,消費可能多一百倍。
我們四萬三千人,大概三萬八是工程師。
我想做個思想實驗:假設你有一位年薪五十萬美元的軟體工程師或 AI 研究員,我們常見。年底我會問他你花了多少 token 錢,若他說五千美元我會抓狂。
若那位五十萬美元工程師一年沒花至少二十五萬美元在 token 上,我會非常警戒。這跟我們晶片設計師說我不用 EDA、紙筆就好,沒兩樣。
若兩三年外推,NVIDIA 的 all-star 效率會怎樣?他們能完成什麼?
首先,「這太難了」這念頭不見了。「這要花很久」不見了。「我們需要很多人」不見了。
這跟上一次工業革命一樣:不會有人說「那棟建築看起來好重」。不會有人說「那座山太大」。凡太大、太重、太久,那些想法都不見了。你剩下創造力:你能想出什麼?
AUTO Research
老實說,而且那是在大家一夜之間替換整個企業軟體堆疊之後。我跟大家講我九十分鐘內用雲上 agentic 系統替換整套軟體堆疊與一堆工作負載、建置、部署;週日晚上十點開始,十一點半做完去睡。
管理團隊週末都要做類似練習。週一我們看到的時候我覺得:結束了。技術/科學那邊,我們用 auto research 三十分鐘內做了件事,內部發布時大家說「我的天」。那通常是一篇要做七年的博士論文,會是我們這領域最被慶祝的博士之一、會上《Science》期刊,結果在三十分鐘、桌上電腦跑 auto research、把我們剛餵進去的資料全用上。週五拿到資料說試試看,上 GitHub 下載 Auto Research 就跑。你看到每個人的表情,然後意識到這解鎖的潛力:七年的事三十分鐘發生。我們在基因體上也經歷這個,覺得不可思議。
企業 IT 軟體業不會被摧毀****
我給你另一個觀點:企業軟體業被「座位數」限制,即將有一百倍的 agent 在敲這些工具。它們會敲 SQL、向量資料庫、Blender、Photoshop。原因是這些工具首先做得很好,再來它們是我們與成果之間的管道。工作完成時,必須用我懂得掌控的方式呈現給我。我要一切回到 Synopsys、Cadence,因為那是我掌控、那是我 ground truth 的方式。
開源的終局
我認為我們根本上需要模型作為一流產品、專有產品,也需要模型作為開源。不是二選一,是兩者都要。因為模型是技術,不是產品;模型是技術,不是服務。對絕大多數消費者、水平層、通用智慧,我真的不想自己微調,我會繼續用 ChatGPT、Claude、Gemini、X,各有個性,看心情跟問題選。那塊產業會很繁榮。
美好之處在於你有很好的 router,第一天就接上,每天你都能用到世界最佳模型,然後你有時間降成本、微調、專精,所以每次出手都是世界級能力。
我們相信凡會動的東西,有一天會完全或部分自主
我們不想造自駕車,但我們要讓全世界車廠都能造自駕車。
所以我們做了三台電腦:訓練、模擬、評估,以及車上電腦。
我們開發世界最安全的駕駛作業系統,也做出世界首個推理式自駕車,能把複雜情境分解成較簡單、它知道如何導航的情境,就像我們的推理系統。那套推理系統叫 Alpamayo,讓我們成果極好。我們垂直優化、水平創新,讓大家自己選:要跟我們買一台電腦,像 Elon 跟 Tesla 買我們訓練電腦;或訓練加模擬;或三台都要、甚至車上電腦也放我們的。
我們態度是:我們要解決問題,不是當唯一方案商,你怎麼跟我們合作我們都高興。
拿市占的幾個原因
一,我們速度變快了。
我們讓大家理解重點不是做晶片,是做系統,而系統超難做,所以他們跟我們的生意在增加。像 AWS,我想昨天才宣布,未來幾年要買一百万顆晶片,很多晶片,在已經買很多的基礎上。我們很樂意。
我們這幾年市占增加,也因為 Anthropic 來 NVIDIA、Meta 的 SLM 來 NVIDIA,開放模型成長驚人,那都在 NVIDIA 上。我們也因為雲外的所有公司、在企業、產業、邊緣區域成長,那整段若只做 ASIC 很難做。
不管你讀什麼,要變成深度使用 AI 的專家
於工作還有一句希望大家聽進去:在深度學習革命初期,全世界最優秀的電腦科學家之一,我非常尊敬,曾預測電腦視覺會完全消滅放射科醫師,他建議大家不要走放射科。
十年後他的預測百分之百對:電腦視覺已整合進全世界所有放射技術與平台。但驚人的結果是放射科醫師人數上升、需求暴衝。原因是每份工作有目的與任務;你的任務是看片,但目的是幫醫師、幫病人診斷疾病。現在掃描做得超快,他們能做更多掃描、改善醫療。
沒有留言:
張貼留言