2026年1月26日 星期一

【 A. I. Artificial Intelligence 產業2 】數十位醫生和治療師表示,聊天機器人導致他們的患者出現精神病症狀、社交孤立和不良生活習慣她感到不安的是,這項新技術似乎會使人們從僅僅有古怪的想法,轉變為完全的妄想。。遊戲繪圖的未來,已經不再只是算力競賽,而是全面轉向 AI 神經渲染。川普團隊面臨在圍繞人工智慧所需能源的全球戰略戰爭中敗北的風險。為什麼這麼多人工智慧試點計畫會停滯不前?因為最大的機會——非結構化資料——只有在經過清洗、結構化並準備好投入生產後才能創造價值。ben chen 台積電五奈米! 這段影片介紹了日本新創公司 LRENZ(レンゾ) 所開發的新型 AI 晶片架構 「CGLA」,以及他們如何挑戰 NVIDIA 在 AI 半導體市場的壟斷地位。 核心內容摘要:.....。對 ChatGPT 的開發者來說,2026 年或許會是充滿挑戰的一年 In reality, it may be a year of tough questions for the maker of ChatGPT 。三星成功加入能自行設計 GPU 的公司俱樂部,包含 NVIDIA、AMD、Intel、Apple 與 Qualcomm。。Meta 收購 AI 新創公司 Manus/ Meta buys Chinese-founded AI start-up Manus。Google 以 47.5 億美元收購數據中心與能源開發商 Intersect。 胡嘉璽: 圖靈獎 vs. 諾獎的神仙打架 - 最近 Yann LeCun 和 Hassabis 在戰什麼?連微軟 CEO Satya Nadella都看不下去自家 Copilot 的表現 張瀞文(jingwenchang)2篇整理:另一種視角:AI與地緣競賽進入新階段,從中國深圳一台EUV談起;Nvidia以三倍價格200億美元收購Groq部分資產,黃仁勳在盤算什麼?。為何 AI 巨頭紛紛斥巨資蓋基建?算力遠遠不夠的原因 - 推理時的運算ChatGPT 生活運用



206
儘管謝菲爾德醫生習慣於治療精神不穩定的人,但她感到不安的是,這項新技術似乎會使人們從僅僅有古怪的想法,轉變為完全的妄想。
人工智慧引發的妄想症究竟有多嚴重?我們採訪了相關領域的專家。 數十位醫生和治療師表示,聊天機器人導致他們的患者出現精神病症狀、社交孤立和不良生活習慣。

Although she is accustomed to treating people with mental instability, Dr. Sheffield was disturbed that this new technology seemed to tip people from simply having eccentric thoughts into full-on delusions.



How Bad Are A.I. Delusions? We Asked People Treating Them.

Dozens of doctors and therapists said chatbots had led their patients to psychosis, isolation and unhealthy habits.
NVIDIA 在 CES 2026 一張新顯卡都沒發,卻拋出一句震撼彈:傳統顯卡時代可能真的要走到盡頭了。執行長黃仁勳直言,RTX 5090 或許會是「傳統光柵化技術的巔峰」,而遊戲繪圖的未來,已經不再只是算力競賽,而是全面轉向 AI 神經渲染。
所謂光柵化,是過去數十年 GPU 的核心工作方式:把 3D 模型硬生生算成 2D 像素。但黃仁勳認為,這條路已經撞牆,單純堆疊著色器效能,換來的提升越來越有限。真正能突破瓶頸的,是超解析度、影格生成這類「由 AI 補畫面」的技術。神經渲染不再追求每一個像素都精準物理計算,而是交給神經網路去理解、重建與生成影像細節,讓效能與畫質同步躍進。
更關鍵的是,AI 改變的不只畫面,還包括「怎麼做遊戲、怎麼玩遊戲」。從 NeRF 等新流程,到 NVIDIA ACE 平台打造的 AI NPC,未來角色的行為、對話甚至情感反應,都可能由模型即時生成。這也意味著,DLSS 不再只是輔助功能,而是未來遊戲能否成立的核心基礎。RTX 5090 是否真成為「傳統顯卡的絕唱」仍待時間驗證,但可以確定的是,遊戲 GPU 的定義,已經被 AI 徹底改寫。


----

為什麼這麼多人工智慧試點計畫會停滯不前?因為最大的機會——非結構化資料——只有在經過清洗、結構化並準備好投入生產後才能創造價值。



觀點:川普團隊目前贏得了與中國爭奪委內瑞拉石油控制權的短期戰役。但他們卻面臨在圍繞人工智慧所需能源的全球戰略戰爭中敗北的風險。 https://ft.trib.al/G668MXa

Why do so many AI pilots stall? Because the biggest opportunity—unstructured data—only creates value when it’s clean, structured, and ready for production. Read more: https://ter.li/mittr_invisible_social
In partnership with Invisible Technologies
-----
ben chen 台積電五奈米!
這段影片介紹了日本新創公司 LRENZ(レンゾ) 所開發的新型 AI 晶片架構 「CGLA」,以及他們如何挑戰 NVIDIA 在 AI 半導體市場的壟斷地位。
核心內容摘要:
* 開發團隊背景:
* LRENZ 的創始成員曾是 PlayStation (PS2, PS3) 核心半導體的開發者,擁有深厚的硬體設計經驗 [00:51]。
* 什麼是 CGLA?
* CGLA 是一種全新設計的運算架構,旨在解決傳統「馮·諾伊曼架構(Von Neumann architecture)」的瓶頸。
* 低耗能:在傳統架構中,資料在記憶體與運算器之間的頻繁移動佔用了超過 50% 的功耗。CGLA 透過大幅減少資料移動,宣稱比 NVIDIA 的 GPU 節省高達 90% 的電力 [00:58], [08:18]。
* 高通用性:不同於 Google 的 TPU 專精於矩陣運算(Tensor 運算),CGLA 具有高度靈活性,能隨時透過軟體重新配置資料流,以應對不斷變化的 AI 演算法(如 Transformer 之外的新模型)[11:53], [15:14]。
* 與競爭對手的比較:
* NVIDIA (GPU):雖然通用性高,但架構老舊且電力效率低 [03:13]。
* Google (TPU):電力效率佳,但僅限於特定運算,缺乏靈活性 [12:36]。
* CGLA:目標是同時達成 「高電力效率」 與 「高通用性」 [13:53]。
* 面臨的挑戰:
* CUDA 障礙:NVIDIA 的強大在於其 CUDA 軟體開發環境,已成為 AI 開發者的標準。LRENZ 必須克服如何讓開發者在不依賴 CUDA 的情況下,也能輕鬆轉換到 CGLA 平台 [15:35], [16:38]。
這款晶片預計將在 2026 年春季由台積電(TSMC)代工生產 5mm 的晶片原型 [01:36]。
影片來源: 元プレステ開発陣がNVIDIAに挑む!消費電力9割減の新型AIチップ「CGLA」って何だ!?
---


OpenAI believes it can single-handedly tap private investors for as much as $100bn in 2026. In reality, it may be a year of tough questions for the maker of ChatGPT
OpenAI 認為,到 2026 年,它能夠憑藉一己之力從私人投資者籌集高達 1000 億美元的資金。但實際上,對 ChatGPT 的開發者來說,2026 年或許會是充滿挑戰的一年。
----
三星正在為自家行動晶片鋪一條「完全自主」的新路。最新消息指出,Exynos 2600 不只效能升級,連 GPU 設計主導權也開始回到三星手中,象徵長期仰賴外部技術的局面,可能即將出現關鍵轉折。
過去幾代 Exynos 晶片的 GPU,核心架構多半來自 AMD,三星則負責整合與調校。而在 Exynos 2600 上,名為 Xclipse 960 的 GPU 雖仍採用 AMD 架構思維,但實際設計已大幅由三星主導,這被視為邁向「完全自研 GPU」的重要過渡階段。業界更預期,下一代 Exynos 2800 有望首次導入 100% 自主研發的 GPU 架構,真正擺脫外部供應商依賴。
放眼全球,能自行設計 GPU 的公司本就不多,包含 NVIDIA、AMD、Intel、Apple 與 Qualcomm。若三星成功加入這個俱樂部,不只代表行動 SoC 技術自主化,更意味著未來能針對 AI、XR、機器人等應用進行更深度的客製化設計,拉開與競爭對手的差距,對整個半導體產業版圖都可能產生長期影響。


-----

FOMO//僅僅九個月,20億美金。
今天,Meta 宣佈收購一家成立不到一年的 AI 新創公司 Manus。這個數字,讓它成為繼 WhatsApp 和 Scale AI 之後,Meta 史上第三大收購案。這家公司在被收購時,年收入預估已達 1.25 億美元。
這筆收購的重點是,這標誌着我們正從「對話式 AI」時代,邁向「代理式AI」(Agentic AI)時代。
▋從「聊天顧問」到「資深專案經理」
要理解 Manus 的重要性,我們必須先弄清楚它與我們熟知的 ChatGPT 或 Gemini 有何本質不同。
我們熟悉的AI,無論多麼強大,其本質都是一個「被動的應答者」。你問,它答。
它像一個知識淵博的實習生或顧問,能為你提供資訊、草稿和建議,但最終完成工作的,依然是你自己。
而 Manus 更像是一個擁有「大腦、眼睛與雙手」的數位員工。
你給它的不是一個問題,而是一個目標。例如,「分析我所有競爭對手最近的市場活動,並生成一份包含數據圖表的綜合報告」。
Manus 會像一位資深的專案經理,自主地完成這一切:
1. 理解與拆解: 它會將這個模糊的目標,拆解成一系列清晰、可執行的步驟。
2. 規劃與協同: 它會調動內部不同的「專家代理人」(Specialized Agents)——有的負責上網搜尋權威資料,有的負責處理數據,有的負責編寫程式碼,有的負責生成圖表與文字。
3. 執行與適應: 它會自主執行這些步驟,如果某條路走不通,它會嘗試其他方法,無需人類干預。
4. 交付成果: 最後,它直接交付一份完整的報告,而不是一堆零散的資訊。
這就是典範的轉移:從「提供答案」到「完成工作」。
▋技術解構:多代理人協同架構
Manus 的特點,源於其底層的「多代理人協同架構」(Multi-Agent Architecture),這也是它與依賴單一大語言模型的傳統 AI 最大的區別。
你可以把它想像成一個高效的「夢幻團隊」,而不是一個孤獨的天才。這個團隊有三個核心部門:
- 理解部門: 負責接收指令,弄清楚「老闆」(用戶)到底想要什麼。
- 規劃部門: 團隊的大腦,負責制定詳細的行動方案,並將任務分配給最合適的專家。
- 執行部門: 團隊的手腳,由無數專家組成,各自精通一項技能(寫程式、做圖表、操作網頁等),並在雲端不知疲倦地工作,即使用戶離線也不會停。
這種架構的優勢是顯而易見的:它更可靠、更精準,也更能處理複雜的、環環相扣的任務。
權威的 AI 評測基準 GAIA 的數據也證實了這一點。在最高難度的 Level 3 任務上,Manus 的得分(57.7%)遠超其他對手,這恰恰證明了它在處理複雜多步推理上的優勢。
▋從一個瀏覽器插件開始
Manus 的成功並非橫空出世。其創始團隊早在 2022 年就開發了一款名為 Monica 的 AI 瀏覽器插件。
這個看似不起眼的插件,積累了超過 1000 萬用戶,並獲得了騰訊和紅杉中國的投資。
這一步棋,展現了驚人的戰略遠見:
1. 技術試驗場: 千萬級的用戶,為 Manus 的多代理人技術提供了最寶貴的真實世界訓練數據和反饋。
2. 用戶蓄水池: 這 1000 萬用戶,成為 Manus 發布後最直接、最忠實的早期採用者,使其能夠在短短一周內就累積超過 200 萬的等候名單。
可以說,沒有 Monica 的鋪墊,就沒有 Manus 的一飛沖天。
▋Meta 為何急於在 9 個月內出手?
就在今天,Meta 以超過 20 億美元收購了成立僅 9 個月的 Manus。這筆交易透露出一個極其強烈的信號:AI 的競爭已經從「模型參數」轉向了「應用生態」。
為什麼一家年收入 1.25 億美元的公司能賣到 20 億?
簡單來說,未來的社交與商業,不再是人與人的互動,而是「人的 Agent」與「商業 Agent」之間的對接。
當然,Agentic AI賽道上不止 Manus 一個玩家。OpenAI 的 Operator 擅長模擬人類操作網頁,Google 的 Gemini Agent 則深度整合其辦公生態。但它們的定位更偏向「輔助」,而 Manus 從一開始就瞄準了「自主」。
更有意思的是 Meta 的收購條款:交易完成後,Manus將剝離所有中國資本,並停止在中國大陸的運營。
事實上,Manus也一直想攞脫中國的影子。
早在Monica的時代,他們就已經拒絕了字節跳動(抖音母公司)的3000萬美金收購。
然後,在Manus誕生幾個月後,他們就將總部搬到新加坡,並大幅裁減在中國的員工和業務。
這筆交易的背後,也浮現出當今全球科技競爭中無法迴避的地緣政治色彩。頂尖的 AI 技術,早已不僅僅是商業資產,更是大國博弈的戰略籌碼。
當然,Manus目前仍有不穩定、在某些專業領域能力不足等問題。但就像第一代 iPhone 重新定義了手機,Manus 已經為我們重新定義了 AI 的可能性。
AI 的下一步,競爭的焦點將不再是「誰的 AI 更會說話」,而是「誰的 AI 更能辦事」。
- KP
p.s. FOMO研究院的「2026年十大展望」剛剛發出,文章完全免費,從宏觀探討到AI落地,Agentic AI當然是其中一個主題之一。訂閱我的電子報,就能免費閱讀這份含金量極高的2026年展望。

------

直接砸 47.5 億美金「全現金」買斷!Google 這次不演了?⚡️
為了養大 AI 這隻吃電怪獸,科技巨頭現在不只比晶片,直接開搶發電廠!
這筆交易背後透漏的訊號太明顯:未來的石油,就是「電力」與「算力」。💸
這真的不是愚人節玩笑,Google 剛宣布以 47.5 億美元(換算台幣大概 1,500 億左右!)收購數據中心與能源開發商 Intersect。重點來了,這是一筆 All-cash(全現金)交易,完全展現了鈔能力的極致。
Intersect 這家位於舊金山的公司,原本就是 Google 的合作夥伴,專門在搞數據中心和能源廠。現在 Google 覺得光是合作已經不夠看,乾脆整間買下來比較快。這感覺就像是你怕家裡打 Game 跳電,直接把附近的變電所買下來一樣狂。🤣
Google 執行長 Sundar Pichai 對此表示:「Intersect 將幫助我們擴大產能,更靈活地建設發電設施以配合新的數據中心負載,並重新構想能源解決方案。」
簡單翻譯就是:AI 運算實在太耗電了,如果不自己掌握「發電」跟「供電」的能力,未來的 AI 大戰根本打不下去。
現在這場科技界的「軍備競賽」已經殺紅眼了。看看隔壁棚的 Amazon、Meta、Microsoft 和 OpenAI,每一家都在狂蓋全球數據中心。但紐約時報指出一個有趣的點,通常這些大公司為了財報好看,會用一些複雜的財務手段,讓小公司去背債蓋廠,自己躲在後面。像 Google 這種直接把整間能源公司「買斷」的操作,在業界其實相當罕見!
雖然 Google 常常被監管機構盯上(畢竟搜尋引擎壟斷疑慮沒停過),但為了 AI,這次似乎顧不了那麼多。根據 Google 的說法,這次收購不只包含 Intersect 的員工和項目,還直接拿下了「幾吉瓦(Gigawatts)」的能源產能。
這一切的大動作,都是為了加速 Google 在德州 Haskell 地區的 AI 基礎設施佈局。光是在那裡,Google 就計畫在 2027 年前砸下 400 億美元。💰
大家平常在玩 ChatGPT 或 Gemini 的時候,可能沒想到背後其實是在燒發電廠的能量。這也難怪分析師會說,掌握「能源+數據」的整合能力,才是接下來科技擴張的關鍵。
以後哪家 AI 比較強,可能不是看它的演算法有多神,而是看它家發電廠夠不夠力。🔌
這波科技巨頭的「能源爭奪戰」,你們覺得誰的口袋最深、會笑到最後?👇 #插花編
(示意圖/AI生成,僅作為新聞說明輔助使用)


-----

圖靈獎 vs. 諾獎的神仙打架 - 最近 Yann LeCun 和 Hassabis 在戰什麼?
有在刷 X 的人最近一定板凳珍奶雞排很長一段時間了,看圖靈獎得主 AI 教父 Yann LeCun 和諾貝爾獎得主 Demis Hassabis 兩個針對 AGI 的未來展開激烈的言詞交鋒。我一直以為網路吵架只會發生在我們市井小民身上,天才的對決總是溫良恭儉讓,沒想到兩人十足噴來噴去。不過在這脣槍舌戰的火藥味之下,我們看看他們爭論的重大議題是什麼。
AGI (通用人工智慧) 到底存在嗎?嚴格來說,應該是「通用」到底存在嗎?
Yann 認為,我們平時說的「通用智慧」這件事誤會可大了。人類智慧的本質並非「通用」(General),而是高度的「特化」(Specialized)。我們覺得自己通用是種幻覺。
Yann 舉了一個非常經典的黑猩猩實驗。在螢幕上隨機出現幾個數字,如 1 到 5,位置是亂的,只閃現零點幾秒就迅速被白色方塊蓋住。測試者的任務是憑記憶按順序點出位置。結果是,經過訓練的黑猩猩在速度和準確率上輕鬆碾壓人類。
Yann 表示,智慧是多維的雷達圖。在邏輯、語言上很強,但在瞬時記憶上可能不如黑猩猩。自然界根本沒有全能冠軍,所有生物的智慧都是為了適應生存環境而特化出來的,沒有一個生物的智慧是通用的。
這個論點和生物學高度吻合。全世界的生物在物理特徵上都有所長,狗的嗅覺,老鷹的視覺,美洲豹的咬合力。如果我們把「智慧」這件事也細分成不同的領域,不同的生物在不同方面可能也強過人類。
那為什麼我們有這樣「通用」的幻覺呢?這就是因為我們人類所建立的世界,是以人類為中心建立的社會。我們活在一個自己建立最舒服的世界中。如果以人類樣樣都最聰明的通用智慧,把你放在沙漠中,你應該馬上知道怎麼樣存活下去(是的,沙漠有其它動物存活得很好)。但因為我們沒經過沙漠生活的特化訓練,大家當然就活不下去,但野外生活專家可能就比一般人生存的機率高很多。
Yann 更指出了一個和 LLM 的隱空間(Latent Space)非常接近的理論,就是視神經。人類有 100萬條視神經纖維,如果每條只有 0和1兩種狀態,那就會有2的100萬次方個狀態。這個排列組合比宇宙的總原子數量還多出不知多少次方倍。我們的大腦過濾了不重要的資訊,甚至是把資訊轉成隱變數,就是為了忽略不重要的資訊,這是一種極高效的「無知」,就是特化的最佳範例。
他認為,在 AGI 上路線上,現在大家都是錯的。我們需要的是「特化」的專家協同合作,而非建立一個全能全知的 AGI。
Hassabis 毫不客氣的說「Yann 你是大錯特錯 (Plain incorrect)」。
首先他區分了「全能智慧(universal)」和「通用智慧(general)」。他同意那種能以最優方式解決所有問題的「全能智慧」確實不存在(這符合沒有免費午餐定理),但大家追求的是「通用智慧」,其核心在於「靈活性」和「適應性」。
Hassabis 有個比喻,專用 AI 就像 F1 賽車,能在完美的賽道上無人能敵,而通用智慧就像一輛越野車。在賽道上越野車跑不過 F1,但一旦進入泥濘叢林(複雜現實世界),F1 會瞬間掛點,而越野車卻能跨越山海,甚至還能開上賽道跑完全程。這就是通用智慧的真諦,不追求單一賽道的極致,但具備解決任何意想不到問題的底層能力 。
對於人類社會中存在的「專家」,哈薩比斯解釋這叫「圍繞目標分佈的特化」。你成為數學家是因為你選擇將通用的學習資源集中在數學上,這是軟體層面的選擇,硬體本身依然是通用的。
最後大絕就是 Hassabis 搬出圖靈機這個理論。主張人類大腦和像 Gemini 這種大型語言模型,本質上都是「近似圖靈機」。理論上底層架構是萬能的,現階段的侷限(如產生幻覺)只是資料或算力不夠的實踐問題,而非結構缺陷 。
到此一目了然了。一個是完全排斥 AGI,一個是依然堅持我們需要一個大的模型,並且依照 Scaling Laws 往下發展。這在通往 AGI 的道路上出現了重大分歧。
目前矽谷的主要人物還是十分看好 Scaling Laws。他們手上有算力,有資料,不太可能馬上放棄。Yann 是一個標準的理想主義者,由於和主流觀念相違背,他也離開了現在正投入巨大算力的 Meta。最好笑的是馬斯克也過來踢 Yann 一腳(他們之前吵過架),說 Hassabis 是對的。
之後的發展還不知道,主張 AGI 利用 Scaling 的方式達到是目前矽谷的主流,Yann 的教父地位也不容置疑。現在就是用萬億美金來賭誰對誰錯,在 AI 的狂潮下,Yann 敢逆風站出來提出一個觀點,也不失一個文人的風骨,但這個路線之爭,在 AGI 出來前是不會有答案的。








+++++++

Google執行長皮查伊(Sundar Pichai)說會投資2500億美元。川普稱讚:「這是一筆大金額,微軟呢?」微軟執行長納德拉(Satya Nadella)則是立刻表示,將每年投資800億美元。川普滿意地說:「很好,非常好。」....../

//連微軟 CEO 都看不下去自家 Copilot 的表現,根據報導,Microsoft 執行長 薩提亞·納德拉近期頻繁介入 AI 專案,不只每週與核心工程團隊開會,還直接在內部點名 Copilot 的整合方式「一點都不聰明」。他特別提到,相較於 Google 的 Google Gemini 能深度整合 Google Drive、直接理解資料內容,微軟的 Copilot 在郵件與服務串接上,卻常常無法正常運作,讓人失望。
這也反映出大型科技公司目前共同面臨的難題:AI 不是「有做就好」,而是必須真正融入既有產品,才能撐起龐大的研發與算力成本。納德拉已明確把重心轉向 AI,甚至親自參與挖角 OpenAI 與 Google DeepMind 等機構的人才,顯示這場 AI 競賽,已從功能展示,進入到決定企業未來十年的硬仗。

---


張瀞文(jingwenchang)

 另一種視角:AI與地緣競賽進入新階段,從中國深圳一台EUV談起

由四位美國科技界億萬富翁主持的熱門播客Podcast節目《All-In Podcast》最新一集熱議中國EUV突破。這四位億萬富翁堪稱毒舌派,節目一週一集,內容通常聚焦投資、科技、創業、經濟和時事,以其主持人(如 Chamath Palihapitiya, Jason Calacanis, David Sacks, David Friedberg)的獨特觀點和頻繁的爭論性討論聞名。
All-In Podcast 最新一集熱議中國EUV突破,這四位討論得很熱烈,他們稱之為中國的「曼哈頓計劃」,內容觸及台灣很少被討論的視角,也談到台積電以及中國科技競爭的問題,不是台灣好棒棒,也不會是中國一定強,我們可以藉此看看西方科技專業的人們,是怎麼看待這件事情的。
西方技術封鎖面臨挑戰,AI與地緣競賽進入新階段
知名科技播客《All-In Podcast》於12月19日發布最新一集,標題為《Bernie Sanders: Stop All AI, China’s EUV Breakthrough, Inflation Down, Golden Age in 2026?》。四位主持人——Chamath Palihapitiya、Jason Calacanis、David Sacks與David Friedberg——深入討論了路透社12月17日獨家報導:中國在深圳一處高度保密實驗室建成並測試極紫外光(EUV)光刻機原型機。這一消息被視為中國半導體自給自足的重大里程碑,主持人們以驚訝、謹慎與地緣政治視角剖析其影響。
根據路透報導指出,中國原型機已於2025年初建成,目前正進行測試,成功產生EUV光源——這是EUV技術中最難的瓶頸之一。這個計畫由前荷蘭ASML工程師團隊主導,透過逆向工程、二手零件與國家級資源傾注實現,宛如中國版的「曼哈頓計劃」。雖然機器體積龐大、尚未能生產可用晶片,光學系統與穩定性仍需精煉,但這遠超西方預期。ASML行政總裁曾表示中國需「很多很多年」才能追上。
主持人之一Friedberg(南非裔美國企業家、投資人與創投家,擁有柏克萊加州大學天文物理學學位,早期曾任職於Google,並在科技、農業、食品等領域進行廣泛的天使投資。)首先解釋EUV技術的本質:這是先進晶片製造的核心,使用13.5nm極紫外光刻蝕電路,實現3nm以下製程。難點包括高功率光源、原子級精密鏡片與真空環境,全球僅ASML壟斷,一臺機器成本高達3-4億美元。2019年起,美國施壓荷蘭禁止對中國出口EUV,甚至擴及舊款DUV設備,主要目的在於讓中國落後一代製程。
主持人們認為,這一突破證明出口管制「回力鏢效應」:禁運刺激中國加速自研,而非永遠阻擋。Sacks(南非裔美國科技企業家、投資人與作家,曾在 PayPal 擔任營運長,他與伊隆.馬斯克、Peter Thiel等人同屬 PayPal 黑幫,投資過 Facebook、Uber、SpaceX 等眾多知名公司)強調,EUV曾是西方「技術扼喉」的戰略優勢,若中國突破瓶頸,將大幅削弱美國對中國AI與軍事計算力的限制,加速全球「AI軍備競賽」。
Chamath(斯里蘭卡出生的加拿大及美國人,是風險投資主義者、工程師、SPAC的發起人、創始人和Social Capital的首席執行官。 2007年到2011年在Facebook是早期高級管理人員。)則是補充,即使中國的硬體追上,AI晶片競爭未來更依賴架構創新與軟體生態,美國在此仍有領先。若中國量產EUV,SMIC(中芯)與華為可直接生產先進節點晶片,打破ASML壟斷,重塑供應鏈。
主持人指出,中國目前靠舊DUV多重曝光與AI優化(如計算光刻)已逼近5nm,EUV原型意味未來直接躍進。國家「大基金」規模數千億人民幣,重點砸向設備與材料「卡脖子」環節,支持體系化推進:資金、頂尖院所、高薪人才回流與產業鏈整合,而非純粹「偷技術」。
TSMC與台灣的關鍵地位與潛在風險
討論中,主持人多次聚焦TSMC與台灣在全球供應鏈的樞紐角色。截至2025年第三季度,TSMC佔全球晶圓代工市場約72%,先進節點(7nm以下)貢獻近四分之三收入,其中3nm製程佔23%。TSMC生產全球90%以上的最先進晶片,台灣整體貢獻約65%的全球晶片產能,絕大多數切割邊緣節點均來自台灣。這使得TSMC不僅是AI革命的骨幹(如為Nvidia、AMD、Apple等供應關鍵晶片),更成為地緣政治的「矽盾」(silicon shield),但也暴露巨大風險。
Sacks特別分析,若中國量產EUV,SMIC與華為可直接生產先進節點晶片,打破ASML壟斷,重塑供應鏈。這將大幅減弱中國對台灣TSMC的依賴,降低潛在「武統」行動的經濟代價,改變台海威懾平衡。
主持人警告,台灣海峽衝突可能導致全球經濟損失逾10兆美元,TSMC台灣廠區(佔其先進產能90%以上)若中斷,將引發晶片短缺危機。Chamath補充,即使硬體追上,AI晶片競爭未來更依賴架構創新與軟體生態,美國在此仍有領先,但中國自給將加速「技術脫鉤」,全球供應鏈分裂為西方(以TSMC為核心)與中國雙軌。
為應對風險,TSMC正積極多元化:美國亞利桑那廠投資達1650億美元(美國史上最大外國直接投資),預計2027年生產3nm晶片;另有日本、歐洲據點。但主持人指出,台灣仍為最先進製程核心(2nm預計2025年底量產),海外廠僅佔總產能約10%,短期難以完全替代台灣效率與生態。
西方應對與未來展望
主持人指出,中國目前靠舊DUV多重曝光與AI優化(如計算光刻)已逼近5nm,EUV原型意味未來直接躍進。國家「大基金」規模數千億人民幣,重點砸向設備與材料「卡脖子」環節,支持體系化推進。
節目其他部分討論桑德斯反AI立場、通膨趨緩與2026年潛在「黃金時代」,但中國EUV與TSMC/台灣風險成為焦點。主持人理性警醒:這是「醒醒呼籲」,西方需加大本土投資如CHIPS Act,預測2026年將見更多中國進展,這決定AI與地緣未來,台灣的半導體主導地位正面臨前所未有考驗。
此集 Podcast凸顯美中科技競賽新轉折,中國進展或迫使西方重新評估封鎖策略,同時強化對TSMC與台灣供應鏈韌性的關注。


-----Nvidia makes its biggest purchase ever

Wall Street’s favorite AI stock just found a new way to tighten its grip on the data center; rival chipmakers may not like where this is headed.

------

張瀞文 
 (jingwenchang)

大家在吃聖誕大餐,他忙著購併公司,黃仁勳太拚了吧!
Nvidia以三倍價格200億美元收購Groq部分資產,黃仁勳在盤算什麼?
正當大雪紛飛,家家團聚渡過聖誕假期平安夜之際,AI 業界爆出了一顆震撼彈:NVIDIA(輝達)突然宣布以約 200 億美元的代價,取得推論晶片新創公司 Groq 的核心資產。
這筆交易的金額令人咋舌——它是 NVIDIA 史上最大規模的收購案,且價格幾乎是 Groq 幾個月前估值(約 70 億美元)的 3 倍。更耐人尋味的是,這並非完整的「企業併購」,而是採取「非獨家技術授權」加上「核心團隊延攬」的特殊架構。
究竟是什麼樣的危機感,讓身價數兆美元的「AI 之王」黃仁勳不惜砸重金、甚至避開監管審查也要將其納入麾下?
危機一:推論市場的「典範轉移」正在發生
在 AI 的世界裡,分為「訓練」(Training)和「推論」(Inference)。NVIDIA 的 GPU 在訓練領域擁有絕對壟斷地位,但黃仁勳深知,隨著 AI 應用進入大規模普及期,「推論」的市場規模將比訓練大上一百萬倍。
而「推論」正是GPU 的短板。
也就是說,NVIDIA 的 GPU 雖然強大,但它是為了通用計算設計的。在運行如 ChatGPT 這種即時對話模型時,GPU 面對的是「低延遲」與「高能效」的巨大挑戰。
而Groq 開發的 LPU(Language Processing Unit) 採用了截然不同的架構,捨棄了昂貴且耗能的 HBM 記憶體,改用片上 SRAM。這讓它在處理文字生成的推論時,速度比 GPU 快 10 倍,能效高出數倍。
黃仁勳看到第一個危機是,如果推論市場的算力標準被 Groq 這種「ASIC(專用晶片)」架構定義,NVIDIA 辛苦建立的 CUDA 生態堡壘將會出現裂痕。
危機二:雲端巨頭的「去 NVIDIA 化」叛變
Google、微軟、亞馬遜等雲端大廠,既是 NVIDIA 的最大客戶,也是最想擺脫其控制的競爭對手。尤其是Google TPU 的威脅。
Google 的 TPU(張量處理單元)已經進化到第七代,且證明了在自家 Gemini 模型上,TPU 的推論效能與成本優勢巨大。
至於在人才方面,Groq 創辦人 Jonathan Ross 本就是 Google 第一代 TPU 的核心設計者。黃仁勳看中的不只是 Groq 的晶片,更是 Ross 及其背後這群「深諳 TPU 奧義」的頂尖工程師。
黃仁勳看到第二個危機是,如果雲端大廠紛紛轉向自研或第三方推論加速器,NVIDIA 將從「AI 硬體標準」降級為「昂貴的供應商」。他必須透過這次「三倍溢價」的行動,將推論領域的最高技術水平強行納入 NVIDIA 體系。
危機三:監管機構的「反壟斷」斷頭台
NVIDIA 曾嘗試併購 Arm 但因各國監管阻撓而失敗,這是黃仁勳心中揮之不去的陰影。
這次 NVIDIA 運用巧妙的收購結構—支付 200 億美元,卻宣稱「並非收購公司」,而是「授權技術」與「聘僱員工」。這種做法能極大地降低各國反壟斷機構(如美國 FTC、歐盟委員會)啟動深入調查的可能性,確保技術能第一時間整合進 NVIDIA 的「AI 工廠」架構。
黃仁勳看到第三個危機是,在地緣政治與監管趨嚴的當下,傳統併購已行不通。他必須發明一種「軟併購」模式,以極高的現金溢價來換取對競爭對手的「技術閹割」與人才吸納。
200 億美元買的是一張「保險單」
對 NVIDIA 來說,這 200 億美元不是在買一家公司的營收,而是在買一張通往推論時代的門票。
黃仁勳正在將 NVIDIA 從一家「GPU 公司」轉型為一家「數據中心等級的 AI 計算平臺」。
透過 Groq 的技術,他補齊了 GPU 在低延遲推論上的不足,並再次向全世界——尤其是 Google 等競爭對手——宣示:在 AI 晶片的賽道上,NVIDIA 不僅要贏在起點(訓練),更要統治終點(推論)。



ChatGPT 生活運用

為何 AI 巨頭紛紛斥巨資蓋基建?算力遠遠不夠的原因 - 推理時的運算
這五年來,主宰 AI 進化的法則,大家都知道就是 Scaling Laws。但你認為的 Scaling Laws 如果還是那個 Chinchilla Scaling Laws,即無限增加算力及資料時,AI 的能力就會線性增長,老實說,這個時代早就過去了。
不管是 Ilya 或 Hassabis 都說了,訓練時的 Scaling Laws 已經從增長期進入緩慢期,我們需要另個比擬 Transformers 的劃時代架構,才能再進入更高層次的 AI 領域。但矽谷大佬們為何還是忍住一肚子火交「輝達稅」買 GPU 呢?為何皮衣老黃還是毫無羞愧用 75% 的高毛利賣 GPU 呢?因為在這些矽谷大老心中,就算預訓練的瓶頸已經達到,但真正要消耗算力的,竟然是在推理階段的大量 Token 產生,這被稱為 Inference-Time Compute,或是 Inference-time Scaling Laws。
怎麼說?
這是一個 AI 發展典範的轉移。過去我們認為「模型訓練好就是固定的」,要變強只能重新訓練(Training-time compute),改變它的參數才行。但現在的觀念變了。即使模型不重新訓練,只要給它更多「思考時間」(Inference-time compute),它就能變得更強。
這就是當代最強的高階推理模型背後的秘密。我們可以把它想像成從「直覺反應」進化到「深思熟慮」,你看到的最新模型,包括 GPT-5.2,Gemini 3 Flash/Pro 或 Claude 4.5 Opus/Sonnet 都是如此。
這個稱為「推理期的可驗證式合成資料」(Verifiable Synthetic Data)可能在一般文字的生成上表現差強人意,但在「程式碼生成」或「數學推理上」的具體運作流程則是強上加強,這邊舉個具體的例子說明它如何運作,程式碼生成是最棒的範例。
程式碼有一個人類語言沒有的特性:它能被執行,而且非黑即白(對就是對,錯就是錯)。我們現在要利用這個可驗證合成資料的目的,就是要打造一本「完美題庫」,作為日後的訓練。
假設我們要訓練一個模型學會寫 Python 程式,但網路上高品質的「題目 + 完美解法 + 詳細思考過程」不夠多。我們該怎麼憑空變出這些資料?
這就是 Rejection Sampling(拒絕採樣) 或 Best-of-N 的流程。下面是詳細的步驟。
第一步:大量生成(廣撒網):
我們給一個還算聰明的模型難題
* 題目: 請寫一個 Python 函數,計算費氏數列的第 n 項,要求時間複雜度必須低於 O(n)。
* 然後要求模型生成 100 個不同的解答 (Rollout)。 這時候,模型會產生各種品質的代碼:
* 解答 A:寫錯了,語法錯誤。(垃圾)
* 解答 B:寫對了,但用遞迴寫法,速度很慢(O(2^n))。(普通)
* 解答 C:寫對了,用矩陣快速冪,速度極快。(極品)
...(其他 97 個各種奇怪的解法)
第二步:硬體驗證(過濾器)
這時候,不需要人類介入。我們寫一個自動化的「判卷程式(Unit Tests + Profiler)」去跑這 100 個解答:
* 編譯檢查: 解答 A 報錯 -> 淘汰。
* 正確性檢查: 輸入 10,看輸出是不是 55。不對的 -> 淘汰。
* 效能檢查: 輸入 10000,看誰能在 0.1 秒內跑完。解答 B 超時 -> 淘汰。
* 最後,系統發現解答 C 是唯一通過所有測試,且效能最高的代碼。
第三步:逆向合成(Back-Translation / Synthesizing Reasoning)
現在我們有了「題目」和「正確代碼(C)」,但這還不夠。我們要教模型「思考」。 我們再把「題目」和「解答 C」丟回給模型,下一個指令:
「這是一個完美的解答,請你詳細解釋這段代碼為什麼這樣寫?請一步步推導出矩陣快速冪的思考過程。」
模型會根據正確答案,反向生成出一段高品質的「思維鏈(Chain of Thought)」。
第四步:存入資料庫
最後,我們得到了一組由 AI 生成,但經過嚴格數學驗證的完美教材:
Input: 題目
Output: 高品質思維過程 + 完美代碼(解答 C)
這就是合成資料。 它不是從網路上抄來的,也不是蒸餾自別人的模型(因為別人的模型可能也寫不出解答 C),它是透過「暴力嘗試 + 嚴格驗證」篩選出來的「黃金樣本」。
為什麼這招比「蒸餾」更強?
第一就是因為 GitHub 上的程式碼有很多是初學者寫的垃圾程式碼,如果你只用網路資料訓練,模型就會學到垃圾寫法。但透過上述流程,模型只會學到「被驗證過最高效」的寫法(寫法 C)。
第二就是可以打破資料牆。數學題、邏輯題、物理模擬都可以這樣做。只要能寫出「驗證程式(Verifier)」,就能無限生成資料。Google DeepMind 的 AlphaGeometry 就是用這種方法,憑空生成了幾億則幾何證明題來訓練,最後解題能力拿到國際數學奧林匹亞金牌等級。
如果是寫作文、寫詩: 那確實很像「蒸餾」,因為很難驗證好壞,容易造成模型崩潰。
如果是寫程式、數學、科學: 那就是「演化」,透過優勝劣汰的機制,讓合成資料的品質超越原始資料。
上面還是使用資料來訓練,但真正的在用戶提問時,即時運用類似上述的原理來產生回答的嗎?這就是到 Inference-time compute 的概念。
LLM 在產生資料時,會有兩個作法,稱為 System 1 和 System 2,這和人類一模一樣。這是心理學家 Daniel Kahneman 提出的。
System 1 為快思考,是傳統的 LLM 運作方式。看到問題,憑藉訓練時的「直覺」直接預測下一個字。就像你被問「1+1等於幾?」,你不用算就能脫口而出「2」。這個方式的優點就是快,便宜。但缺點就是遇到複雜邏輯題容易「一本正經講幹話」,因為它是線性的,一旦前面預測錯了,後面就跟著錯,無法回頭。
System 2 稱為慢思考,看到問題,不准馬上回答。模型內部先啟動一個「隱藏的思考流程」。就像你遇到一題微積分,你需要拿出一張紙在上面試算、畫圖、發現算錯了劃掉重算,最後才把乾淨的答案寫在考卷上。這類模型回應時會顯示「Thinking...」,並且等待時間較長。
Inference-time Compute 就發生在此。當你問一個複雜問題時,推論模型在那個「等待時間」內,其實是在瘋狂地進行我們上一段提到的「生成 -> 驗證 -> 修正」循環,只是這一切都發生在短短幾秒鐘內。下面會做幾件事
A. 隱藏的思維鏈(Hidden Chain of Thought)
模型開始生成一連串的「思考 Token」,這些 Token 不會顯示給你看。
(模型內心獨白):用戶要我寫一個貪吃蛇遊戲。我應該先決定用什麼庫?Pygame 好像太重了,用 HTML Canvas 好了。等等,用戶之前好像說過喜歡 Mac 風格... 那我介面要設計成圓角。先試著寫一段邏輯... 咦,這裡碰撞檢測好像寫錯了,如果是撞到自己的身體應該要 Game Over。修正一下...
B. 自我反思與搜索(Self-Correction & Search)
這就是最關鍵的一步。傳統模型是一條路走到黑,推論模型則像是在走迷宮(Tree Search):
嘗試路徑 A: 走到一半發現邏輯不通 -> 主動放棄(Backtrack)。
嘗試路徑 B: 邏輯通順,但效率太低。
嘗試路徑 C: 完美。
它會在內部模擬多種可能的解法,只有當它對結果有足夠的「信心分數」時,才會把最終的路徑 C 翻譯成文字輸出給你。
如果是這樣搞,算力當然不夠!(黃仁勳表示...)。
首先就是推理成本暴增。以前問一個問題,模型輸出 100 個字,就消耗 100 個單位的算力。 現在問同樣問題,模型內部可能生成了 50,000 個字的「思考過程」(你看不到),最後只輸出 100 個字。 推理階段的算力需求可能會變成原來的 100 倍甚至 500 倍。
另外就是打破「模型大小」的限制。過去我們認為要變聰明,模型參數就要變大(例如從 7B 變成 70B)。但現在小模型只要給夠長的「思考時間」,它的表現可以超越一個秒回的大模型。這在業界被稱為「Scaling Laws for Inference(推理的擴展定律)」,智力可以透過「時間」來換取,而不僅僅是透過「參數量」。
「合成資料」是在訓練前把教材準備好(Offline)。 而現在的「推論模型」則是把這個過程搬到你提問的那一瞬間(Online/Real-time),就像一個考試時會反覆檢查驗算的學生,雖然交卷比較慢,但考 100 分的機率遠高於那些寫完就交卷的學生。
所有巨頭都在等待 AI 爆發的時刻,現在不蓋基建就會被擠出賽道,連機會都沒有,但當 AI 爆發時,全世界如果大家都用上 AI,並且要求模型在合理的時間內思考出正確的答案,那他們是對的,目前算力遠遠不夠。說句難聽的話,就算現在模型不再訓練不進步了,就使用現在的模型,如果用的人一多,算力就是不夠了。Scaling Laws 還活著,只是換了一個戰場,如果現在底層架構不修改,這麼耗能的使用方式會一直爆炸成長,這也難怪全世界的 AI 頂級廠商不惜血本也要拼命擴建,也是我們這些使用者造成的呢。

沒有留言:

網誌存檔