生成式 AI 之後,計算架構的一些不成熟設想

支 持 本 站: 捐贈伺服器等運維費用,需要您的支持!

我最早接觸計算機,是在 Apple II 時代。

打開機器之後,螢幕上只有一個 BASIC 提示符。程序直接運行在機器上,沒有作業系統,也沒有所謂的"應用軟體"。

很多年後我才意識到,那其實是一種完全不同的計算時代。

最近幾年生成式 AI 的發展,讓我產生了一種非常熟悉的感覺。

它讓我想起了那個時代。

這篇文章只是一些非常粗略的想法。

如果這些假設是成立的,那麼 AI 時代的變化
可能不僅僅發生在模型本身,
還會發生在:

- 計算硬體
- 企業軟體架構
- 軟體工程
- 用戶介面



支 持 本 站: 捐贈伺服器等運維費用,需要您的支持!

篇一:歷史的隱喻,AI 正在經歷它的"386 時刻"

我個人接觸計算機比較早,最初是在 Apple II 時代。當時打開機器就是 BASIC 提示符,程序直接運行在機器上。後來到了 DOS 時代,系統的特點非常明顯:單任務、內存限制極其嚴格,且程序直接控制硬體。

這和早期的基礎大語言模型非常相似:只能進行單線程的文本輸入輸出,受限於極短的上下文窗口,開發者需要手動管理狀態,一不小心就會"內存溢出"(也就是模型產生幻覺)。

轉折點發生在 386 處理器和保護模式的普及。386 架構帶來的"保護模式"和"虛擬 8086 模式",不僅實現了多任務調度和內存管理,更重要的是它在硬體級別隔離了不同程序的運行環境。這意味著一個程序的崩潰不再會輕易導致整個系統死機。

AI 的"作業系統"與"保護模式"

最近越來越多的人開始用一種有趣的隱喻來描述大模型:

LLM 就像一種新的作業系統。

在這個類比里:

- 模型本身像 CPU
- 上下文窗口像 RAM
- 工具調用(tool use)像系統調用

更為關鍵的是,隨著自主 AI 智能體(Agent)的崛起,這些智能體會自主編寫並執行代碼。如果讓它們在宿主環境中裸奔,將帶來災難性的安全風險。因此,業界正在引入類似當年 386 的"保護模式",也就是"智能體沙盒化"(Agentic Sandboxing)。例如,目前前沿的 Kubernetes 沙盒控制器可以利用 gVisor 等技術為執行不受信任代碼的 AI 智能體創建嚴格隔離的容器環境。這就如同當年的 Windows 3.0 依靠硬體分頁和特權環實現了應用隔離一樣,是 AI 走向多任務並發操作平台的核心基石。

篇二:算力重構與邊緣計算的突圍,打破"內存牆"與小模型的春天

當我們在雲端享受 LLM 帶來的便利時,背後的計算基礎設施卻在承受巨大的物理瓶頸。

打破"內存牆"的新架構

現在的傳統 GPU 集群算力雖然強,但在處理大模型推理時,絕大部分的時間和功耗都浪費在了把龐大的模型權重數據從外部顯存搬運到計算核心上,這就是業界所謂的"內存牆"。

為了突破物理極限,半導體行業出現了一批偏離傳統封裝路線的新型架構。比如 Cerebras Systems 推出的晶圓級引擎(WSE-3)。它不再將晶圓切割成小晶片,而是在一整塊矽片上集成了 4 萬億個電晶體和高達 44GB 的片上 SRAM,提供了驚人的每秒 21 拍字節(PB/s)的內存帶寬。

如果模型權重可以直接駐留在片上存儲中,
推理時的數據搬運就會大幅減少,
延遲也可能因此顯著下降。

NPU 與端側小模型(SLM)的爆發

在個人消費端,未來的趨勢不是盲目調用雲端的萬億參數模型,而是"智能微縮"。目前,參數在幾十億以內的小型語言模型(SLM)不僅足以處理 70-90% 的日常推理任務,還能直接運行在個人電腦和移動設備上。

這得益於神經網絡處理器(NPU)在現代 AI PC 中的全面普及。NPU 能夠在極低的功耗下高效處理 AI 數據吞吐。通過在本地執行任務,用戶不僅獲得了"零延遲"的極致響應體驗,還從根本上保障了數據主權,你的隱私數據永遠不會離開你的設備。

篇三:企業 AI 的分水嶺,算力經濟學與自動化的"數據飛輪"

對於企業級應用來說,技術選型不僅關乎酷炫的功能,更關乎投資回報率(ROI)、總體擁有成本(TCO)以及商業機密的安全性。

為什麼不能只靠雲端 API?

依賴公共雲端的通用大型語言模型 API,面臨著難以控制的持續訂閱成本和嚴峻的數據泄露風險。企業核心業務的未來,一定是建立在私有基礎設施之上的。

自動化的"數據飛輪"

企業 AI 架構的成熟方向,是構建基於本地小模型的"數據飛輪"。系統會自動攝取企業內部的文檔、客戶工單和私有代碼,對本地化的 SLM 進行持續的微調(Fine-tuning)。

這種策略的商業收益是驚人的。以英偉達內部的員工支持 AI 智能體為例,他們通過數據飛輪方法微調了 1B 到 8B 規模的私有小模型,在企業內部業務路由的準確率達到了 94% 到 96%,完全媲美 700 億參數的通用大模型。更關鍵的是,這種方案使得推理成本降低了驚人的 98%,延遲降低了 70 倍。將數據留在本地,用私有數據持續訓練專屬模型,這才是企業在 AI 時代建立核心護城河的方法。

篇四:軟體工程與交互的終局,AI 編譯器與生成式 UI

在前幾篇文章中,我們討論了架構、硬體和企業部署。在這最後一篇,我們來看看離開發者和用戶最近的兩層:代碼是如何被生成的?介面是如何被呈現的?

自然語言作為最高階的程式語言

傳統的編譯器遵循嚴格的語法,將人類代碼轉換為機器碼。而今天,自然語言正在成為最頂層的程式語言,大模型則化身為"機率編譯器"。前沿的 AI 編碼智能體(如 Devin)不僅僅是幫你自動補全代碼,它們能在沙盒環境中自主規劃架構、編寫代碼,甚至通過讀取傳統編譯器的報錯日誌,進行自我回溯和補丁修復。當大語言模型與嚴格的編譯器反饋機制深度耦合,"基於提示詞的編程"正在走向"工業級的軟體工程"。

從 UI 到用戶意圖(User Intent)

生成式 AI 的成熟,正在引發人機互動介面的一場根本性顛覆。2025 年的趨勢表明,系統設計哲學正在從傳統的 User Interface(UI)向 User Intent(用戶意圖)跨越。

未來的介面不再是設計師提前硬編碼好的靜態視圖。相反,系統通過 AI 主動理解你想要什麼,然後在螢幕上為你實時生成互動式的組件(Generative UI)。目前 Google 等團隊已經在實驗讓 AI 根據用戶的提示詞,瞬間生成包含 HTML、CSS 和動態圖表的定製化完整應用體驗。不僅如此,視覺 Web UI 還會與環境感知的語音交互無縫融合。

你只需自然地表達目標,軟體就會為你"量身定做"出最合適的介面。

結語

從 80286 跨越到 80386,從本地單機跨越到多任務並發的雲計算,技術世界真正的範式轉移總是來自計算架構的改變。

今天旨在打破物理瓶頸的晶圓級晶片、在本地安全沙盒中執行任務的智能體、動態多模態的生成式 UI,以及企業級的自動化數據飛輪,共同構成了下一代計算紀元的核心架構。

之所以把今天類比成 DOS,而不是 Windows 3.0、網際網路 1995 或 iPhone 2007,是因為我們仍處在"能力已出現、範式未定型"的早期階段。

簡單說,當前階段更像 DOS,主要有四個特徵:

- 功能粗糙:很多能力驚艷但不穩定,邊界條件下仍容易失真或退化。
- 接口原始:提示詞和工作流仍偏"命令行心智",離普適、直觀的交互範式還有距離。
- 工具鏈混亂:模型、架構、評測、部署標準快速疊代,但尚未形成穩定工業基線。
- 應用生態剛開始:爆款場景在出現,但大規模、可持續、可複製的應用生態還在早期建設中。

換句話說,我們已經看見了新時代的輪廓,但還沒走到"平台成熟、生態爆發"的中後段。

也許幾十年後回頭看,
今天的生成式 AI,
可能只是那個時代的
DOS

參考資料與擴展閱讀

文中引用的前沿數據與技術洞察,來源於以下行業實踐與研究報告:

- 關於 80386 的虛擬 8086 模式與沙盒化隔離:可參考其處理隔離多任務的經典架構歷史,以及目前 Kubernetes 生態中利用 gVisor 等實現智能體沙盒隔離的最新實踐。
- 大語言模型的"作業系統"隱喻:Andrej Karpathy 關於 LLM 作為新型 OS,以及上下文窗口等同於主內存的論述。
- 打破"內存牆"與 Cerebras 架構:關於 WSE-3 晶圓級晶片突破傳統 GPU 帶寬瓶頸的數據詳見其技術解析。
- NPU 與端側小模型(SLM):關於 NPU 如何極大提升邊緣計算中本地模型推理效率的探討。
- 企業 AI 與數據飛輪經濟學:關於持續微調閉環(Data Flywheel)的概念,以及英偉達內部應用小模型實現 98% 成本降低和 70x 延遲優化的真實案例。
- 生成式 UI(Generative UI)與用戶意圖:從傳統 UI 向 User Intent 演進的行業趨勢,以及 Google 團隊關於即時生成全功能互動介面的最新研究。

引用文獻

1. What is Cerebras? - Pangea, https://pangea.app/glossary/cerebras
2. Cerebras CS-3: the world's fastest and most scalable AI accelerator, https://www.cerebras.ai/blog/cerebras-cs3
3. NPU vs GPU: Key Differences for AI PCs - HP Tech Takes, https://www.hp.com/us-en/shop/tech-takes/npu-vs-gpu-ai-pcs
4. Devin | The AI Software Engineer, https://devin.ai/
5. 2025 UX Trends - The Evolution from UI (User Interface) to UI (User Intent): A New Era in Human-Agent Interaction - Prof. MING WEN, https://donwen.medium.com/2025-ux-trends-the-evolution-from-ui-user-interface-to-ui-user-intent-a-new-era-in-a0ac085f0d2b
6. Generative UI: A rich, custom, visual interactive user experience for ..., https://research.google/blog/generative-ui-a-rich-custom-visual-interactive-user-experience-for-any-prompt/
7. Generative UI Guide 2025: 15 Best Practices & Examples - Mockplus, https://www.mockplus.com/blog/post/gui-guide
8. What are the "virtual machines" that were running on 80386 and later x86 CPUs before full hardware virtualization? - Retrocomputing Stack Exchange, https://retrocomputing.stackexchange.com/questions/23617/what-are-the-virtual-machines-that-were-running-on-80386-and-later-x86-cpus-be


  • 生成式 AI 之後,計算架構的一些不成熟設想
  • AI 架構演進系列(一):歷史的隱喻,生成式 AI 正在經歷它的"386 時刻"
  • AI 架構演進系列(二):算力重構與邊緣計算的突圍,打破"內存牆"與小模型的春天
  • AI 架構演進系列(三):企業 AI 的分水嶺,算力經濟學與自動化的"數據飛輪"
  • AI 架構演進系列(四):軟體工程與交互的終局,AI 編譯器與生成式 UI
    支 持 本 站: 捐贈伺服器等運維費用,需要您的支持!
  • 發布時間: