2026年3月27日 星期五

說不完的 NVIDIA(輝達/英偉達)/Groq 創辦人 Jonathan Ross: AI 推論速度不只是效能指標的優化,而是一種能力的質變,將從根本上改變企業競爭、軟體開發,以及 AI 產業的經濟模型。他預測企業在 token 上的支出將快速攀升:「有些人現在每個月花 1 萬美元在 token 上,但這可能只是起點。有很多職業的人負責的東西價值數千萬甚至數億美元。工程師使用百萬美元的 token 量,可能很快就會成為現實。」 。【Nvidia新一代Vera Rubin整合Groq的LPU,背後隱形冠軍是力旺電子】 輝達的下一步:規模最大,也最艱難 輝達做出的1兆美元銷售額預測並非遙不可及,但競爭加劇以及市場格局的變化令投資者持幣觀望。 Nvidia is expanding its empire (Rivals may not produce chips as powerful as Nvidia’s, but in some markets “good enough” could prove good enough.) .黃仁勳表示,太空人工智慧資料中心是一個極具吸引力的想法,但現實遠比聽起來複雜得多。儘管隨著人工智慧需求的激增,人們對太空資料中心的興趣日益濃厚,但他強調,業界仍需先專注於地球上的基礎建設。 AI不只是運算,更重要的是運算能力的通訊速度。透過將晶片與網路技術結合 NVIDIA 悄悄成為AI時代最具主導地位的基礎設施公司? . nhk:美國大型半導體公司輝達宣布,該公司已開發出能夠增強AI在基於所學知識自行做出決策時所需的「推論」運算能力的半導體,並預計於今年下半年開始出貨。chips for space datacenters. Vera Rubin下半年登場,NVIDIA改採水冷板統一採購與規格,入選奇鋐、Coolermaster、健策、台達,出貨量可望放大。GTC提出包括 Cisco 與 CrowdStrike 在內的產業夥伴,已開始採用 NVIDIA Agent Toolkit,加速企業級代理的部署與應用; AI 的未來,不只在於模型,更在於能夠自主運作的「代理」。 NVIDIA Agent Toolkit 與 NemoClaw 和 OpenShell,能協助團隊打造可信賴的自主代理,讓 AI 能夠進行推理、即時適應環境,並在安全可控的前提下長時間運作。 🔹 NemoClaw 只需一條指令,即可簡化 OpenClaw 常駐助手的啟動流程,並自動安裝安全的 NVIDIA OpenShell 執行環境,快速建立可信賴的自主運行架構 🔹 OpenShell 為長時間運作的代理提供安全沙箱,確保執行過程穩定且可控 🔹 AI‑Q 則為企業資料提供以評估為基礎的推理能力,讓代理做出更可驗證、可信任的決策 🛡️ 包括 Cisco 與 CrowdStrike 在內的產業夥伴,已開始採用 NVIDIA Agent Toolkit,加速企業級代理的部署與應用。「光銅並進」,引發市場對光通訊發展時程疑慮。但他17日於輝達全球媒體分享會明確指出,正加速與台灣供應鏈合作,與台積電共同開發的COUPE(矽光子整合平台)製程順利推進,光通訊仍是AI基礎建設關鍵路徑。夜市2025起。紐約時報簡述: 推出了NemoClaw,這是一款幫助軟體公司使用智慧代理的產品。:Groq的晶片; 在GTC大會中,黃仁勳終於正式給出了Nvidia會如何融合Groq的答案.....。 ( Fomo研究院): 新電子科技雜誌 [GPU訓練無敵,但黃仁勳在法說會承認了它搞不定的那件事]"NVIDIA 股票到底是貴還是便宜?一張圖看懂" Yu-Chih Edward Hwang 。最關鍵的HBM4高頻寬記憶體供應商名單上,輝達最終選擇了SK海力士與三星,讓美光(Micron,負責為「Vera」CPU提供LPDDR5X記憶體。這顆「Vera」CPU是輝達首次獨立推出,)遺憾未能入選。Nvidia為中國突破性的DeepSeek晶片提供了關鍵技術支援,這種支持削弱了美國對向中國出口高階晶片的出口管制。。 執行長黃仁勳202601 29日訪台,接受訪問時,對於台美關稅協議敲定,盛讚是很棒的成果,這顯出台灣對於美國的戰略價值,與台灣對於世界的重要性,而台積電則是當中的關鍵。2025年,英偉達大幅增加了對歐洲科技公司的投資這些投資「體現了其更廣泛的全球策略,即利用其盈餘現金再投資於人工智慧生態系統」。。公司執行長黃仁勳: 簡明的黃仁勳傳 Jensen Huang: Founder and CEO of NVIDIA 。 黃仁勳傳(暢銷增訂版) 輝達創辦人如何打造全球最搶手的晶片 The Thinking Machine 。世界各地結盟,買公司.......黃仁勳列出了人工智慧在2025年可能取得的三大進展; 週三在達沃斯表示,人工智慧機器人技術是歐洲「千載難逢」的機會。NVIDIA CEO Jensen Huang joins BlackRock CEO Larry Fink at the World Economic Forum Annual Meeting 該公司 每一位工程師現在都會在日常工作中使用 Cursor——一款人工智慧編碼助手。 China has restricted purchases of Nvidia's H200 AI chips。精彩的「開場白」。他們探討了開放模型的力量、實體 AI 和機器人技術的崛起,以及正在重塑醫療保健、金融等領域的重大突破。 這些對話凸顯了在 AI 原生時代採取策略性行動的重要性。 黃仁勳 :黃仁勳表示,下一代晶片已全面投產。與西門子(Siemens)執行長 博樂仁(Roland Busch)對談 (Ben CHEN整理) Jensen Huang黃仁勳 2:next generation of chips is in full production. 本月訪問台灣,出席晚宴的嘉賓包括台積電、富士康、廣達、緯創等公司的領導人,這凸顯了NVIDIA在人工智慧生態系統中的核心地位。在CES消費電子展上重大平台轉移(platform shift);公佈,前段關於AI模型和車用電子、機器人的內容結束後,後段針對Vera Rubin系統全面介紹全新人工智慧晶片及與賓士合作的自動駕駛汽車專案詳情黃仁勳說:“我們的願景是,未來每一輛汽車、每一輛卡車都將實現自動駕駛。”。人工智慧已發展到能夠理解意義而非僅僅理解數據的階段 (AI Has Reached the Point Where It Understands Meaning, Not Just Data)

Groq 創辦人 Jonathan Ross : AI 推論速度不只是效能指標的優化,而是一種能力的質變,將從根本上改變企業競爭、軟體開發,以及 AI 產業的經濟模型。
#推論經濟學Token 速度的定價與企業支出趨勢
Ross 將企業對 AI 的使用分為兩類:「一種是價值保存型,用 AI 來降低成本。另一種是價值創造型,用 AI 來增加營收。當你在增加營收的時候,最重要的事情之一就是更快地迭代。」
對價值創造型的企業來說,速度直接轉化為競爭力。「很多 SaaS 公司、Web 公司一週推一次新版本。如果你能一天推一次呢?一小時推一次呢?」他也分享了 Groq 內部的案例:「我們跟客戶開會,收到一個功能需求,工程師用 coding agent 在會議結束後不到一小時就做完了。如果速度更快,這件事可以在會議結束之前就完成。」
在定價端,Anthropic 和 OpenAI 都已經推出付費加速方案,而且收費幅度是超線性的,速度越快,每個 token 的單價越高。Ross 認為這個趨勢會持續:「確實有更高的成本,但我們正在大幅改善這個成本。無論什麼速度等級,你在每 GW 或每 MW 部署的硬體上都能得到更多 token。」
對於企業 token 支出的規模,Ross 的觀點相當直接:「如果你的工程師不值得給他們 Ultra 方案,那他們值得雇用嗎?你應該把最快的 token 給你最好的工程師。」他預測企業在 token 上的支出將快速攀升:「有些人現在每個月花 1 萬美元在 token 上,但這可能只是起點。有很多職業的人負責的東西價值數千萬甚至數億美元。工程師使用百萬美元的 token 量,可能很快就會成為現實。」
更完整的內容可以看專欄連結

JOV
【Nvidia新一代Vera Rubin整合Groq的LPU,背後隱形冠軍是力旺】
Nvidia的GTC 2026上,黃仁勳宣布將2025年底花200億美元買下的AI新創公司Groq語言處理單元LPU整合到Vera Rubin上,鞏固Nvidia在AI訓練市場上的市占率,並且強化AI推理領域的競爭力。
目前Groq的LPU是採用三星的4奈米製程技術,原因無他,在Nvidia買Groq之前,Groq就在三星投片,Nvidia將Groq併入後,強調time-to-market速度,LP30晶片自然沿用三星代工技術。
值得注意的是,Groq的LPU晶片大量採用on-chip SRAM記憶體來提升AI推理效率,每一顆SRAM都會搭配力旺的OTP技術(一次可編程記憶體)作修復。
隨著AI應用越來越複雜,需要的SRAM容量自然越來越大,但SRAM的density越大產生壞Bit Cell的機率就越高,進而讓晶片良率受到影響。因此,如何修復SRAM 便成為相當重要的課題,而OTP技術是修復SRAM的好方式之一。力旺的OTP技術已經廣泛用在DRAM和SRAM記憶體Cell的修復技術上,除了SRAM,像是DDR5也開始都使用力旺OTP作為bit cell repair。
針對Groq的LPU出貨量,GTC期間有很多討論,郭明錤發布的報告中也指出,預計2026~2027年LPU累計出貨量將達到400萬~500萬顆,2027年出貨數量會比2026年高。
據了解,Groq的下一代LP35仍是會在三星投片,到了2028年Nvidia推出的Feynman架構GPU將採用台積電的A16製程,LPU40可能會轉向台積電3奈米製程。




輝達的下一步:規模最大,也最艱難

輝達做出的1兆美元銷售額預測並非遙不可及,但競爭加劇以及市場格局的變化令投資者持幣觀望。
Rivals may not produce chips as powerful as Nvidia’s, but in some markets “good enough” could prove good enough. Nvidia’s response is to expand in all directions



Benzinga 黃仁勳表示,太空人工智慧資料中心是一個極具吸引力的想法,但現實遠比聽起來複雜得多。儘管隨著人工智慧需求的激增,人們對太空資料中心的興趣日益濃厚,但他強調,業界仍需先專注於地球上的基礎建設。
最大的挑戰之一是冷卻。傳統的對流和傳導等冷卻方式在太空中無法發揮作用,輻射成為唯一的選擇,但這需要龐大且昂貴的設計。 黃仁勳指出,雖然太空擁有豐富的太陽能和無限的空間等優勢,但經濟效益尚未達到。發射成本和基礎設施的挑戰使得短期內大規模部署太空資料中心變得不切實際。 儘管如此,英偉達已經開始嘗試太空人工智慧。該公司正在衛星上運行基於CUDA的系統,直接在軌道上處理影像等數據,而無需將所有數據傳回地球。 黃仁勳認為,隨著時間的推移,這種方法將會擴展,尤其是在人工智慧工作負載持續成長的情況下。在某些應用場景下,太空資料處理可能會更有效率。 目前,這一願景仍處於長期規劃階段。黃先生明確表示,取得進展需要數年時間,但他相信隨著成本的降低和需求的不斷增長,這項技術將會不斷發展。

Benzinga








Nvidia CEO Jensen Huang says AI data centers in space are a compelling idea, but the reality is far more complex than it sounds. While interest is growing as AI demand surges, he emphasized that the industry still needs to focus on building out infrastructure on Earth first.
One of the biggest challenges is cooling. Traditional methods like convection and conduction do not work in space, leaving radiation as the only option, which requires massive and costly designs.
Huang noted that while space offers advantages like abundant solar energy and unlimited room, the economics are not there yet. Launch costs and infrastructure challenges make large scale deployment impractical in the near term.
Still, Nvidia has already begun experimenting with space based AI. The company is running CUDA powered systems on satellites, processing data like imaging directly in orbit instead of sending everything back to Earth.
Huang believes this approach will expand over time, especially as AI workloads continue to grow. Processing data in space could become more efficient for certain use cases.
For now, the vision remains long term. Huang made it clear that progress will take years, but he is confident the technology will evolve as costs improve and demand keeps rising.























----

當全世界的目光都聚焦在英偉達的晶片上時,另一家巨頭正悄悄崛起。

英偉達的網路業務,源自於以70億美元收購的Mellanox,如今已發展成為一家市值高達310億美元的巨頭企業,成為公司第二大收入來源。 該部門為「AI工廠」——連接GPU並支持大規模AI訓練的基礎設施——提供動力。 背後的洞察簡單卻意義深遠: AI不只是運算,更重要的是運算能力的通訊速度。 透過將晶片與網路技術結合,英偉達正致力於掌控整個AI堆疊,而不僅僅是其中的一部分。 英偉達是否正在悄悄成為AI時代最具主導地位的基礎設施公司? 關注Mediablizz,了解更多關於科技、AI、經濟、商業和全球創新未來發展的最新資訊。
While the world focuses on Nvidia’s chips, another giant is quietly rising.
Nvidia’s networking business, built from its $7 billion Mellanox acquisition, has grown into a $31 billion powerhouse, becoming the company’s second-largest revenue driver.
This division powers the “AI factory” the infrastructure that connects GPUs and enables large-scale AI training.
The insight is simple but powerful:
AI isn’t just about compute, it’s about how fast that compute can communicate.
By combining chips with networking, Nvidia is positioning itself to control the entire AI stack, not just a part of it.
Is Nvidia quietly becoming the most dominant infrastructure company in the AI era?
Follow Mediablizz for more updates on the future of technology, AI, economy, business and global innovation.
#Nvidia #AI #Jensen Huang #Mediablizz




nhk:美國大型半導體公司輝達宣布,該公司已開發出能夠增強AI在基於所學知識自行做出決策時所需的「推論」運算能力的半導體,並預計於今年下半年開始出貨。

輝達執行長黃仁勳於3月16日在美國加州,針對開發者舉行的活動上發表演說並宣布,該公司已開發出能夠增強AI「推論」運算能力的半導體,並預計於今年下半年出貨。

有意見指出,為了開發能夠代替人類自行做出決策並執行任務的「AI代理人(AI agents)」,提高AI的「推論」能力勢在必行。

黃仁勳還表示,由於AI的加速發展,對半導體的需求強勁,預測到2027年年底,先進製程半導體的銷售額將達到至少1兆美元。

在AI領域,各公司正在競相開發「AI代理人」,本次輝達公司開發的新型半導體可能會讓競爭進一步白熱化。




-----
Jensen's taking AI to infinity and beyond.


AI 的未來,不只在於模型,更在於能夠自主運作的「代理」。
NVIDIA Agent Toolkit 與 NemoClaw 和 OpenShell,能協助團隊打造可信賴的自主代理,讓 AI 能夠進行推理、即時適應環境,並在安全可控的前提下長時間運作。
NemoClaw 只需一條指令,即可簡化 OpenClaw 常駐助手的啟動流程,並自動安裝安全的 NVIDIA OpenShell 執行環境,快速建立可信賴的自主運行架構
OpenShell 為長時間運作的代理提供安全沙箱,確保執行過程穩定且可控
AI‑Q 則為企業資料提供以評估為基礎的推理能力,讓代理做出更可驗證、可信任的決策
包括 Cisco 與 CrowdStrike 在內的產業夥伴,已開始採用 NVIDIA Agent Toolkit,加速企業級代理的部署與應用


----
輝達執行長黃仁勳於今年GTC大會提出「光銅並進」,引發市場對光通訊發展時程疑慮。但他17日於輝達全球媒體分享會明確指出,正加速與台灣供應鏈合作,與台積電共同開發的COUPE(矽光子整合平台)製程順利推進,光通訊仍是AI基礎建設關鍵路徑。


----

輝達執行長黃仁勳今天在女兒陪同下逛GTC夜市引發轟動,黃仁勳連2年在同一家、也是全場唯一的台灣攤位「梁媽媽家」停留,去年外帶10碗乾麵,今年試吃涼麵、紅油抄手。--
AI Overview

The NVIDIA GTC Night Market is a special, immersive event introduced at the NVIDIA GTC AI conference in San Jose, California, starting with the 2025 conference (March 17–21, 2025). Inspired by CEO Jensen Huang’s love for Taiwanese street culture, it brings authentic Taiwanese food, drinks, and artisan stalls directly into the tech conference environment.
YouTube +4








週一,英偉達還推出了NemoClaw,這是一款幫助軟體公司使用智慧代理的產品。


這些突破促使人們要求人工智慧完成更多工作。每個請求都會發送到資料中心的晶片,這些晶片必須創建令牌(即資料區塊),並透過程式碼、研究或其他使用者所需的內容來滿足這些需求。


紐曼先生表示,英偉達能否贏得其他客戶將決定其在推理市場的份額。他預計該公司將保持在人工智慧開發晶片市場90%的份額,但預測其在運行人工智慧的晶片市場份額將僅為三分之一左右。紐曼先生表示,這不會改變英偉達的營收前景,但會影響其產品。


帕德瓦爾先生表示,Groq的晶片由三星電子製造,而非台積電(TSMC)。台積電是英偉達大部分晶片的製造商,目前正努力滿足英偉達的需求。與英偉達的晶片不同,Groq 的晶片不需要高頻寬記憶體晶片。這些晶片製造商也同樣訂單爆滿。


「這是一項絕妙的供應鏈策略,」帕德瓦爾先生說。




On Monday, Nvidia also introduced NemoClaw, a product that helps software companies use agents.

These breakthroughs have caused people to ask A.I. to do more work. Each request goes to chips in a data center that must create tokens — a term for a chunk of data — that fulfill those demands by responding with code, research or whatever a user wants.






“It’s a brilliant supply-chain move,” Mr. Padval said.


Fomo研究院


在GTC大會中,黃仁勳終於正式給出了Nvidia會如何融合Groq的答案。

模型訓練好之後,真正的商業變現來自於它每一秒鐘產生的 Token。然而,傳統 GPU 在處理大模型時存在一個隱形的「效率斷層」。


▋Prefill VS Decode

我們先要理解一下,現時在運算當中的兩個步驟,Prefill和Decode。

Prefill(預填)就像是「快速讀題與理解」,想像你給了AI一篇 5000 字的文章,並問他:「這篇文章的重點是什麼?」

AI他會一眼掃過這 5000 個字,試圖理解整體的邏輯、抓出關鍵字。這個過程是「一次性」的。他可以同時看好幾行字,大腦(晶片)裡所有的神經元可以一起動起來處理這些資訊。

NVIDIA 的 GPU裡面有幾千個小核心可以同時運作。處理這種「一次看一堆資料」的工作,GPU 速度極快,非常擅長。

但是,光是理解是不足夠的,AI還要給出答案,這就到了下一個步驟:Decode (解碼)。

當AI讀懂題目後,他開始寫下答案:「這篇文章的核心意義在於...」

但是, AI 不能一次把整段答案噴出來。它必須先寫出「這」,然後根據「這」想到下一個字是「篇」,再根據「這篇」想到下一個字是「文」。

這個過程是「一個接一個」的(Token-by-Token)。就像我們說話或打字一樣,你沒辦法在還沒說出第一個字的時候,就同時說出第十個字。

這時候 GPU 就尷尬了。它雖然有幾千個核心(像是有幾千隻手),但現在只需要「一隻手」來寫這一個字。更糟的是,每寫一個字,它都要回頭翻一下剛才讀過的 5000 字筆記(這就是所謂的記憶體讀取)。

▋Groq 3 LPU 的「速度美學」

為了補足 GPU 在解碼階段的短板,NVIDIA 推出了整合後的 Groq 3 LPU (LP30)。它的核心邏輯非常純粹:

Groq 不用那種巨大的外部倉庫,它把所有的資料都放在晶片內部的 SRAM 裡,徹底消除了記憶體瓶頸。

Groq 的設計非常特殊,它取消了所有的調度員和紅綠燈。在程式開始跑之前,電腦就已經精確計算好:「第 1 微秒資料在哪,第 2 微秒資料會到哪。」

這就像一條完全自動化的輸送帶,沒有任何阻礙,資料流進去到噴出來的時間是完全固定且極短的。

這種「確定性」讓它在處理需要一個接一個產生的 Token 時,沒有任何多餘的等待時間。

黃仁勳表示:「Groq 之所以如此吸引我,正是因為它是一個為單一工作負載:推理,而極致設計的運算系統。」

▋軟體靈魂:Dynamo——AI 工廠的操作系統

但真正讓「合體金剛」運作起來的,是 NVIDIA 自研的軟體層 Dynamo。

黃仁勳將其定位為「AI 工廠的操作系統」,它負責將推理流程進行「解離」(Disaggregation):

Dynamo 會自動將任務拆解,把 GPU 擅長的「預填」交給 Vera Rubin,再將對延遲極度敏感的「解碼生成」卸載給 Groq LPU。

Dynamo 1.0 已經正式量產並開源,支援 vLLM、SGLang 等主流後端。它不只是個驅動程式,而是一個能跨節點、大規模調度 KV-Cache 的分佈式框架。

在整合Groq之前,Dynamo就已在Blackwell架構上將推論效能提升了7倍。如今,它成為了釋放「GPU+LPU」混合系統35倍潛力的軟體鑰匙。這正是Nvidia經典的打法:硬體創新 + 全棧軟體護城河。

▋代理型 AI(Agentic AI)的生存先決條件
為什麼我們需要這麼快的速度?因為未來是「代理型 AI」的天下。
過去你跟 AI 對話像在發郵件,現在它必須像在跟你「實時對話」。自動化機器人、多重 AI 協作代理需要的是毫秒級的決策反應。
低延遲不再是奢侈品,而是生存的先決條件。 NVIDIA 透過 Groq 與 Dynamo,讓 AI 從「讀懂問題」進化到「流暢對答」,成本更低、反應更快。
▋從Capex到Opex的轉化
華爾街最擔心的問題是:科技巨頭們投入數千億美元的資本支出(Capex)購買GPU,投資回報在哪?
黃仁勳用「1兆美元訂單」和35倍的能效提升給出了答案。當推論成本大幅下降,AI應用的營運成本(Opex)才能真正支撐起「代理即服務」(Agentic as a Service)等大規模商業模式的盈利能力。
這筆錢不再只是用來「蓋機房」,而是用來「生產Token」賺錢。
▋被忽視的三星奇兵
一個被大眾忽視的細節是:Groq LP30晶片由三星(Samsung)代工。在台積電先進製程產能被全球瘋搶的當下,輝達透過Groq成功開闢了第二條戰線。
這不僅分散了地緣政治風險,更利用三星的龐大產能來滿足推論晶片的巨大缺口。
▋打破線性想像的「Token 經濟」
人類的想像力往往是線性的,我們習慣於預測「更快一點」或「便宜一點」的未來。
然而,當 NVIDIA 透過 Dynamo 將 GPU 與 Groq LPU 完美縫合,我認為將會帶來的是指數級的變革。
當推論(Inference)變得像呼吸一樣廉價且即時,AI 將從一個「你問我答」的工具,演變成一個「永遠在線、自動協作」的代理群體。
這將開啟一個全新的市場:在這個市場裡,企業不再計算買了多少晶片,而是計算每一秒鐘能產生多少具備商業價值的 Token。
這正是黃仁勳最深層的戰略:透過極致的效能與軟硬體整合,建立起一道「非我不可」的護城河。
當開發者習慣了 Dynamo 帶來的 35 倍效能紅利,習慣了 GPU+LPU 的無縫協作,他們將發現自己已經深深植根於 NVIDIA 的全棧生態系中。
- KP
p.s. 想時刻緊貼市場動態的話,我誠邀你訂閱我的電子報,週末筆記永久免費,鏈結在下方。


----

[GPU訓練無敵,但黃仁勳在法說會承認了它搞不定的那件事]
NVIDIA交出了一份讓華爾街幾乎找不到破綻的財報。Q4單季營收681億美元,年增73%,超出市場預期的658億;資料中心業務單季拿下623億,佔總營收91%;Q1展望上看780億,同樣超預期。按任何正常標準,這都是一份炸場的成績單。
但隔天股價重挫5.5%,市值一夜蒸發約2600億美元。
黃仁勳在法說會對此有一句話說得很坦白:「如果我們交出爛財報,那是AI泡沫的證據;如果我們交出好財報,我們就是在助長AI泡沫。」這場NVIDIA永遠贏不了的輿論博弈背後,市場真正在問的問題只有一個,就是這個成長曲線能撐到2027年嗎?中國H200禁令、超大型雲端業者資本支出是否觸頂、AI商業化落地速度是否跟得上硬體投入,三道疑慮疊在一起,把一份史上最強財報的慶功宴提前散場。
但我們沒有那麼關心財務數字,要寫細也可以,但大家可能會看到一半打瞌睡。反而是黃仁勳在回答分析師提問時說出的兩句話可能揭露了NVIDIA下一步怎麼走。
[黃仁勳承認了什麼]
第一句:「Groq追求的是極限低延遲,與我們擅長的極限高吞吐量形成互補的取捨關係。」
這句話在法說會的語境裡份量不輕。法說會是NVIDIA對機構投資人的正式承諾場合,每一個字都經過法務審核,不是隨口說說的場合。黃仁勳選擇在這裡說出「互補的取捨關係」,等於親口在持股人面前畫出了GPU的邊界。他說的邊界很具體,在推理解碼這件事上,GPU有結構性的速度限制,而且這個限制不是靠下一代Blackwell或Rubin就能消滅的。
要理解這句話的重量,得先搞清楚GPU為什麼在推理這件事上卡住了。
GPU以平行運算為核心設計,用外掛的HBM(高頻寬記憶體)存放模型參數,計算時再把資料從記憶體搬進晶片。H200的HBM頻寬約8 TB/秒,聽起來很快,但問題出在「搬運」這個動作本身。每一次token生成,都需要把整個模型的權重從HBM撈出來過一遍,這個來回的IO成本在訓練時幾乎感覺不到(批次夠大,等待時間被攤薄),但在推理時、特別是單一用戶查詢的場景下,GPU核心常常就這樣乾等著記憶體把資料送過來。
GPU還有第二個問題叫動態排程。硬體佇列、執行時仲裁、軟體核心,這些機制讓GPU在多工作業時能靈活調度,但代價是不確定性延遲。在大規模並行運算中,數百個核心必須同步啟動張量,任何一個核心慢了,這個延遲就會往整個系統傳播。這種「最慢的那個人決定整體速度」的現象,在推理場景裡是真實的痛點。
Groq的LPU(語言處理器)從一開始就衝著這兩個問題設計。LPU把記憶體直接整合在晶片上,全用SRAM而非外掛HBM,內部頻寬直接跳到80 TB/秒,是H200的10倍;同時,LPU的編譯器在執行前就把整個運算圖(包括晶片間通訊的時序)預先計算到單個時鐘週期,靜態排程徹底消除了尾部延遲。在Llama 3 8B模型的獨立測試中,LPU達到877 tokens/秒,同期最快的GPU方案約440,差距超過兩倍。
但這組數字背後藏著一個關鍵的反差。單顆LPU只有230MB的SRAM,而H200有141GB的HBM3e。跑同一個70B參數模型,LPU需要576顆晶片、塞滿9個機架;NVIDIA只要2到4張GPU裝進一個小盒子。速度快一倍,但硬體佔地大幾百倍。這個比例關係恰好說明了LPU為什麼沒辦法單打獨鬥取代GPU,它是一個為特定瓶頸量身訂做的工具,而不是通用解。
這個「不通用」的特性,反而是整個收購邏輯的關鍵。
[Mellanox劇本第二幕]

黃仁勳在法說會說的第二句話更值得玩味:「我們將以Groq作為加速器,延伸NVIDIA架構,就如同我們以Mellanox延伸NVIDIA架構一樣。」
2019年,NVIDIA以約70億美元收購以色列網路晶片商Mellanox,當時市場的第一反應是「NVIDIA在買網路設備」。結果黃仁勳用InfiniBand重新定義了整個資料中心的互連層,把計算與網路從兩個獨立採購決策變成一個整合系統,NVIDIA從GPU供應商搖身一變成為資料中心架構師。那筆70億美元,事後看幾乎是他這輩子最划算的一筆交易。
這次的200億美元交易結構設計得很刻意。NVIDIA沒有直接收購Groq這家公司,而是透過「非獨家IP授權加工程團隊移轉」的混合結構完成交易。Groq創辦人Jonathan Ross、總裁Sunny Madra,以及超過400名工程師中的約90%加入NVIDIA,未出售的股份按200億美元估值換成NVIDIA股票並設vesting schedule。Groq作為獨立公司繼續存在,GroqCloud服務不中斷,由財務長Simon Edwards接任執行長。
這個結構一石三鳥。第一,「非獨家授權」的包裝規避了反壟斷審查,讓監管機構難以介入。第二,Bernstein分析師Stacy Rasgon直接點出這是在「維持競爭假象」,授權條款理論上允許AMD或Intel取得同樣的技術,但核心工程團隊全數移轉之後,那份授權對競爭對手的實際價值幾乎等於一張空白支票。第三,NVIDIA同時取得了一條不依賴HBM的推理硬體路徑,在SK Hynix、Samsung、Micron三家HBM供應商談判籌碼持續增強的背景下,這是真實的供應鏈對沖。
整合路徑上,NVIDIA計劃將Groq的軟體函式庫整合進CUDA平台,建立所謂的「雙棧策略」。開發者在單一程式設計環境中完成全流程,在NVIDIA GPU上訓練模型,在LPU強化的硬體上部署超低延遲推理,兩段旅程不需要換工具。Jonathan Ross在NVIDIA內部預計主導一個新的「超低延遲」部門,任務是把LPU的確定性執行模型直接融入CUDA軟體棧。
近期在硬體層面,Rubin平台已推出專門加速推理「預填充」階段的Rubin CPX;市場進一步預期Vera Rubin將採用異構架構,在GPU核心旁嵌入「LPU條帶」處理解碼瓶頸。更長線的Feynman架構(預計2029-2030年客戶出貨)可能透過混合鍵合方式把LPU硬體直接整合進封裝,但那還是後話。
這套邏輯的核心命題和當年Mellanox一模一樣。誰控制了瓶頸那一段,誰就能把整個系統的採購決策都收進自己的平台。Mellanox收的是資料中心的網路互連層,Groq要收的是AI推理的解碼段。黃仁勳在財報法說會親口說出GPU的取捨關係,不是在示弱,而是在為這個論述背書。承認限制存在,互補架構的收購邏輯才站得住腳。
GTC 2026在3月16至19日於聖荷西登場,黃仁勳在法說會明確承諾屆時會公布更多Groq整合細節,包括CUDA雙棧的具體API設計與Rubin平台中LPU的定位方式。那才是驗證這兩句法說會發言的第一個實質節點,說清楚「怎麼做」,比說清楚「為什麼做」難得多。












X軸 12個月的銷售增長
看圖說故事其實波音才是最貴的?其次是特斯拉。
Nvidia落在合理區間甚至比 1/3 的Nasdaq股票還便宜。
以下摘要:
這篇由 Carmen Reinicke 與 Ryan Vlastelica 撰寫的 Bloomberg 文章(發表於 2026 年 2 月 27 日),核心觀點在於探討 Nvidia(輝達)目前令人困惑的「估值悖論」。
以下是該文章的中文摘要與重點解析:
核心主題:增長驚人,卻顯出「價值股」特徵
儘管 Nvidia 的股價在過去一年大幅上漲(約 50%),但文章指出,從某些估值指標來看,它現在反而比許多增長緩慢的傳統公司更「便宜」。
重點摘要:
* 估值倍數大幅縮減 (Forward P/E Compression):
雖然 Nvidia 營收瘋狂成長,但其**預期本益比(Forward P/E)**卻在下降。根據 Bloomberg 數據,Nvidia 目前的預期本益比約在 25x 至 30x 之間,這甚至比標普 500 指數中約三分之一的股票還要低。
* 「增長」跑贏了「股價」:
股價雖然在高點,但獲利(Earnings)成長的速度遠超股價上漲的速度。這意味著分母增加得比分子快,導致估值倍數看起來像是一檔穩健的「價值股」,而非充滿泡沫的投機股。
* 營收成長的含金量:
文章提到 Nvidia 過去 12 個月的營收增長率高達 65%(在標普 500 中排名第三)。這種高成長配上相對合理的本益比,使其 PEG 比率(本益成長比) 極具吸引力。
* 市場的轉變:
投資者正從單純的「AI 狂熱」轉向「基本面審查」。這份報告顯示,Nvidia 並非僅靠「預期」支撐股價,而是有真實、龐大的現金流支撐。比起特斯拉(Tesla)或其他溢價極高的成長股,Nvidia 的估值基礎顯得更為紮實。
結論:
這篇文章認為,Nvidia 正在打破大眾對「高科技成長股 = 昂貴泡沫」的刻板印象。它現在正處於一個獨特的甜甜蜜點:擁有超高成長性的同時,估值卻相對理性。




AI巨頭輝達(NVIDIA)的最新AI系統「Vera Rubin」預計今夏末出貨,專為新一代大型語言模型打造。然而,在最關鍵的HBM4高頻寬記憶體供應商名單上,輝達最終選擇了SK海力士與三星,讓美光(Micron)遺憾未能入選。這意味著SK海力士和三星將繼續主導高階AI伺服器記憶體市場,分別拿下約70%和30%的訂單。
不過,美光並非完全出局!他們將在「Vera Rubin」平台中扮演另一個重要角色,負責為「Vera」CPU提供LPDDR5X記憶體。這顆「Vera」CPU是輝達首次獨立推出,將直接挑戰Intel和AMD的伺服器處理器市場。隨著輝達積極推動這款CPU,對LPDDR5X記憶體的需求將大幅增加,美光有望成為這類記憶體的主要供應商,為其帶來新的重要商機。
值得一提的是,「Vera Rubin」系統的頻寬在一年內從13 TB/s大幅提升至22 TB/s,顯示輝達對AI性能的極致要求。美光這次未能獲得HBM4訂單,業界普遍認為可能是其產品尚未完全符合輝達最新一輪系統升級所需的嚴苛標準。然而,輝達將高頻寬記憶體(HBM)與大容量記憶體(LPDDR5X)交由不同廠商供應,這不僅能有效分散供應鏈風險,也能促使各家供應商在AI伺服器市場上持續競爭與創新。

----
據一位美國議員透露,英偉達為中國突破性的DeepSeek晶片提供了關鍵技術支援。 眾議員穆勒納爾在緻美國商務部長霍華德·盧特尼克的信中表示,英偉達的這種支持削弱了美國對向中國出口高階晶片的出口管制。


Nvidia gave key technical support to China's breakthrough DeepSeek model, according to a US lawmaker.
In a letter to US Commerce Secretary Howard Lutnick, Representative Moolenaar says this support undermines the export controls the US has on sending high-end American chips to China.


輝達(NVIDIA)執行長黃仁勳29日訪台,在機場接受訪問時,對於台美關稅協議敲定,盛讚是很棒的成果,這顯出台灣對於美國的戰略價值,與台灣對於世界的重要性,而台積電則是當中的關鍵。

-----

2025年,英偉達大幅增加了對歐洲科技公司的投資,參與了14輪融資,而2024年僅為7輪。 ➡️這家晶片巨頭投資了多家歐洲領先的新創公司,包括Mistral、Revolut和Lovable。 ➡️這些投資「體現了其更廣泛的全球策略,即利用其盈餘現金再投資於人工智慧生態系統」。

In 2025, Nvidia hugely upped its investments in European tech companies, taking part in 14 funding rounds, compared to seven in 2024.
➡️The chip giant invested in leading European startups, including Mistral, Revolut and Lovable.
➡️The investments “mirror its broader, global strategy of taking its excess cash and reinvesting in the AI eco




簡明的黃仁勳傳


Ben Chen [39:40] …我必須承認,在 20 多歲的時候,我感覺自己更聰明,注意力更集中,思維也更快。

* [39:53] 但我認為完全缺乏的是,20 多歲的人缺乏智慧、洞察力更敏銳、更具策略眼光、以及更長遠思考的能力。
* [40:07] 我認為所有這些能力在 20 多歲的時候都被忽略了,而且我不知道不親身經歷,又怎麼能學會這些呢?
* [40:17] 你可以透過閱讀來學習這些,現在你也可以看 YouTube,並且要有足夠的同理心,去感受別人的經歷,這樣或許就能透過他們體驗人生。
* [40:39] 然後透過觀看獲得智慧。所以模仿學習是真實存在的,我認為這很棒。
* [40:47] 但要學習如何處理痛苦和磨難,以及與之相關的感受-不是身體上的痛苦,而是情緒上的煎熬,經歷其中的痛苦和恐懼-需要一種堅韌不拔的精神。
* [00:41:00] 我認為,真正能讓你更有韌性的唯一方法就是親身經歷。
* [00:41:09] 所以我不知道該如何跳過這一步。而且我認為,如果你跳過了這一步,你就會錯失你潛能的很大一部分。
* [00:41:18] 所以不要跳過那些艱難的部分。不要跳過那些痛苦的時刻。不要跳過那些你必須忍受的部分。
* [00:41:26] 因為這些時刻正是你成長最多的時候。
以下是影片 Jensen Huang: Founder and CEO of NVIDIA 從 39:40 至 41:30之間的英文文字稿:
* [39:40] ...I will have to agree that in my 20s I feel smarter, I can concentrate with greater intensity, I think faster.
* [39:53] But the thing that I would say is completely missed is all of the ability to be wiser, to be more nuanced, to be more strategic, to think longer term.
* [40:07] I think all of that is missed in the 20s, and I don't know how you learn those things by not living those things.
* [40:17] You could always repeat those things by reading it, and these days you could always watch YouTube and be sufficiently empathetic, you could kind of feel what other people are going through, so you could maybe live their life through them.
* [40:39] And somehow gain that wisdom by watching. So imitation learning is a real thing, and so I think that's terrific.
* [40:47] But there's a grit that comes along with enduring the knowledge of how to deal with pain and suffering, the feelings of it—not the physical feelings, but the emotional toil and going through the agony part of it, the fear part of it.
* [00:41:00] I think the only way you could really develop the scar tissues to make you more resilient is by going through it yourself.
* [00:41:09] And so I don't know how to skip that. And I think that if you skipped it, you would have missed a large part of your potential.
* [00:41:18] So don't skip the hard parts. Don't skip the parts where it's tough. Don't skip the parts where you have to endure.
* [00:41:26] Because those are the moments when you're growing the most.
影片網址:



youtube.com

黃仁勳傳(暢銷增訂版)
輝達創辦人如何打造全球最搶手的晶片 The Thinking Machine

Jensen Huang: Founder and CEO of NVIDIA






















Nvidia chief Jensen Huang said AI robotics is a “once-in-a-generation” opportunity for Europe at Davos on Wednesday.……
英偉達執行長黃仁勳週三在達沃斯表示,人工智慧機器人技術是歐洲「千載難逢」的機會。
Jensen Huang lists AI's 3 biggest advances of 2025
黃仁勳列出了人工智慧在2025年可能取得的三大進展

We’re heading to Davos tomorrow!
NVIDIA CEO Jensen Huang joins BlackRock CEO Larry Fink at the World Economic Forum Annual Meeting to discuss how AI is driving economic growth — creating new jobs and boosting productivity across the global economy. #wef26
January 21, 2026 at 11:30–12:00CET
Mark your calendars: https://nvda.ws/3YKiEzT

黃仁勳
黃仁勳希望他的工程師們將編寫程式碼的時間完全排除在外。在最近做客 No Priors AI 播客節目時,黃仁勳透露,這家市值 3 兆美元的晶片製造商的每一位工程師現在都會在日常工作中使用 Cursor——一款人工智慧編碼助手。

Nvidia CEO #JensenHuang wants his engineers to spend exactly zero percent of their time writing code. In a recent appearance on the No Priors AI podcast, #Huang revealed that every engineer at the $3 trillion chipmaker now uses Cursor, an AI coding assistant, throughout their workday. Details here 🔗http://toi.in/kCJklZ

---

BREAKING: China has restricted purchases of Nvidia's H200 AI chips and will only approve purchases of the chips "under special circumstances," per The Information.



感謝 NVIDIA Live 的主持人和嘉賓們在 CEO 黃仁勳演講前進行了精彩的「開場白」。他們探討了開放模型的力量、實體 AI 和機器人技術的崛起,以及正在重塑醫療保健、金融等領域的重大突破。 這些對話凸顯了在 AI 原生時代採取策略性行動的重要性。 錯過了直播? ▶️ 觀看重播:https://nvda.ws/4qFPkq0 ---- NVIDIA CEO 黃仁勳表示,下一代晶片已全面投產


Thank you to our NVIDIA Live hosts and guests for "Setting the Stage" ahead of CEO Jensen Huang’s presentation. They discussed the power of open models, the rise of physical AI and robotics, and major breakthroughs shaping healthcare, finance, and more.
These conversations underscore how critical it is to move strategically in the AI-native era.
Missed it? ▶️ Watch the replay: https://nvda.ws/4qFPkq0

----

Nvidia CEO Huang says next generation of chips is in full production


Ben CHEN
這段來自 Bloomberg Podcasts 的影片(發布於 2026 年 1 月 6 日)是一場由輝達(NVIDIA)執行長 黃仁勳 與西門子(Siemens)執行長 博樂仁(Roland Busch) 共同參與的訪談。
以下是影片的摘要與重點整理:
1. 輝達與西門子的深度戰略合作
* 加速工業數位轉型: 兩家公司宣布一項重大合作,將輝達的 AI 技術(物理 AI 與代理 AI)整合到西門子的工業軟體平台(如 EDA、Teamcenter 和工廠自動化系統)中 [02:17]。
* 數位孿生(Digital Twin): 西門子利用輝達的技術來優化產品與製造過程。黃仁勳提到,輝達也使用西門子的軟體來設計其先進晶片,並在「AI 工廠」中模擬熱力學等物理特性 [02:43]。
* 應用實例: 目前技術已應用於如晶片製造、飲料生產甚至能源新創公司,旨在提高產量、節能並解決勞動力短缺問題 [01:42, 06:01]。
2. 下一代 AI 硬體與效能
* Vera Rubin 平台: 黃仁勳介紹了新發表的 Vera Rubin 系統。該系統整合了 6 個晶片,能源效率與成本效率均比上一代提升了 10 倍 [03:31]。
* 突破物理限制: 黃仁勳強調,隨著系統變得極度複雜,透過數位孿生進行「一次就做對」的模擬設計至關重要 [04:14]。
3. 能源與基礎設施挑戰
* 能源限制: 兩位執行長均承認,能源始終是工業發展的瓶頸。黃仁勳提到,川普政府的能源增長議程對於美國新興 AI 產業的成長至關重要 [09:15]。
* 供應鏈需求: 西門子看到電力基礎設施(如變壓器、燃氣輪機)的強勁需求,這反映了 AI 發展對能源供應鏈的巨大壓力 [10:32]。
4. 全球佈局與中國市場
* 中國市場: 關於 H200 等產品進入中國,黃仁勳表示他直接觀察企業的需求,若政策允許,需求依然強勁 [12:14]。
* 人才與稅收: 針對矽谷討論的「富人稅」,黃仁勳表示他並不擔心,並直言「我完全沒想過這件事」,他更看重的是矽谷的人才聚集 [20:39, 21:09]。
5. 未來技術與太空工廠
* 太空 AI 工廠: 討論到 SpaceX 在太空建立數據中心的可能性,黃仁勳認為這在技術上是可行的,因為太空有豐富的能源與冷卻條件,而「智能代幣(tokens)」比實體硬體更容易傳回地球 [16:24, 17:15]。
* 自動駕駛(AV): 黃仁勳讚揚特斯拉的自動駕駛架構是世界上最先進的之一,並表示輝達與特斯拉在視覺 AI 領域的路線有許多相似之處 [18:06, 18:56]。
核心訊息: 這次對話強調了 AI 從雲端走入「物理世界」的趨勢,特別是透過輝達的運算能力與西門子的工業經驗結合,推動工業 AI 的「ChatGPT 時刻」到來 [07:14]。


----

NVIDIA執行長黃仁勳在CES 2026期間舉行主題演講,前段關於AI模型和車用電子、機器人的內容結束後,後段針對Vera Rubin系統全面介紹,不僅指出Vera Rubin已在量產階段準備大量出貨,同時在設計端,也是NVIDIA少有的全面改版。
黃仁勳直言,過去NVIDIA一直有個默契,就是每次推出新世代的系統,最多只能有1~2顆晶片改版,但這次在技術上有不可避免的理由,因此重新設計6顆主要晶片。
在CES展前專講上,輝達(NVIDIA)創辦人暨執行長黃仁勳以「新年第一場主題演講」開場,指出電腦產業每10到15年會出現一次重大平台轉移(platform shift),而當前正同時發生兩個平台轉移:應用將建立在AI之上,以及軟體開發與運行方式的根本改變。他強調,產業正從「寫程式」走向「訓練程式」,從 CPU 走向 GPU,並由 AI 即時生成內容,推動整個運算堆疊重新被定義。


-----
英偉達執行長黃仁勳預計將於本月訪問台灣,該公司正準備在台北設立新總部,進一步擴大在該地區的業務版圖。這次訪問正值人工智慧晶片需求持續攀升,全球半導體供應鏈(尤其是亞洲)面臨越來越大的壓力之際。

當地報道稱,黃仁勳將與台北市府官員會面,並可能簽署協議,正式確立英偉達在台北的總部。該項目目前正在進行規劃和分區審查,台北市政府官員稱英偉達的投資計畫是對其信心的強大體現。

另有傳言稱,黃仁勳還將與台灣最大的科技和製造企業的高管舉行私人晚宴。據報道,出席晚宴的嘉賓包括台積電、富士康、廣達、緯創等公司的領導人,這凸顯了英偉達在人工智慧生態系統中的核心地位。

英偉達的崛起堪稱奇蹟。隨著對其人工智慧晶片、軟體和資料中心系統的需求爆炸性成長,該公司市值已超過4兆美元。分析師表示,即使競爭對手正大力推動客製化晶片設計,英偉達?在訓練工作負載領域仍佔據主導地位。

中國正在助推這一趨勢。近期政策調整允許英偉達新款晶片有限度地進入中國市場,中國企業紛紛搶購。這波訂單激增可能會提振營收,但也可能增加緊張的產能。
Nvidia CEO Jensen Huang is expected to visit Taiwan this month, as the company prepares to deepen its footprint in the region with a new headquarters in Taipei. The trip comes as demand for AI chips keeps climbing and pressure builds across the global semiconductor supply chain, especially in Asia.
Local reports say Huang will meet city officials and may sign an agreement formally establishing Nvidia’s Taipei base. The site is moving through zoning and planning reviews, while Taipei leaders describe Nvidia’s investment plans as a major show of confidence.
Huang is also rumored to host a private dinner with top executives from Taiwan’s biggest tech and manufacturing firms. The guest list reportedly includes leaders from TSMC, Foxconn, Quanta, Wistron and others, underscoring how central Nvidia has become to the AI ecosystem.
Nvidia’s rise has been extraordinary. The company is now worth more than $4 trillion as demand for its AI chips, software, and data center systems explodes. Analysts say Nvidia still dominates training workloads, even as competitors push into custom chip designs.
China is adding to the momentum. Recent policy shifts have allowed limited shipments of Nvidia’s newer chips into the country, and Chinese firms have rushed to place orders. That surge could lift revenue, but it may also stretch already tight production capacity.

公佈全新人工智慧晶片及與梅賽德斯合作的自動駕駛汽車專案詳情

在CES消費電子展上,英偉達執行長黃仁勳表示,這款更有效率、更強大的晶片將於今年稍晚開始出貨。

黃仁勳說:“我們的願景是,未來每一輛汽車、每一輛卡車都將實現自動駕駛。”





Nvidia Details New A.I. Chips and Autonomous Car Project With Mercedes

At the CES conference, Jensen Huang, the company’s chief executive, said the more efficient and powerful chip would begin shipping later this year.

“Our vision is that someday, every single car, every single truck, will be autonomous,” Mr. Huang said.

黃仁勳表示,人工智慧已發展到能夠理解意義而非僅僅理解數據的階段


在史丹佛商學院的活動上,英偉達執行長黃仁勳解釋說,人工智慧最大的轉變並非規模,而是理解。幾十年來,人類將從基因、胺基酸到文字、聲音、圖像和視訊等一切事物數位化。難點從來不在於儲存這些數據,而是要理解這些數據的真正意義。


黃仁勳表示,人工智慧的最新突破使得軟體能夠透過學習大量資料集中的模式和關係來理解意義。更重要的是,這些系統能夠在不同形式的資訊之間進行轉換,例如將文字轉換為圖像,將圖像轉換為程式碼,或將生物數據轉換為洞見。


在他看來,這種理解和轉換意義的能力正是現代人工智慧與早期計算時代的區別所在,也是開啟科學、醫學和工業領域全新可能性的關鍵。

Jensen Huang Says AI Has Reached the Point Where It Understands Meaning, Not Just Data
Speaking at a Stanford Graduate School of Business event, Nvidia CEO Jensen Huang explained that the biggest shift in AI is not scale, but understanding. For decades, humans digitized everything from genes and amino acids to words, sounds, images, and video. The hard part was never storing that data. It was knowing what it actually meant.
Huang said recent breakthroughs in AI now allow software to understand meaning by learning patterns and relationships across massive datasets. Even more importantly, these systems can translate between different forms of information, like turning text into images, images into code, or biological data into insights.
In his view, this ability to understand and translate meaning is what separates modern AI from earlier computing eras, and it is what unlocks entirely new possibilities across science, medicine, and industry.
-
📹: StanfordGSB/YouTube
-
What are your thoughts? Drop a comment below!👇

網誌存檔