🔴 Inside Tech: The next big thing in AI

來自:The Economist
日期:2026-02-03

Inside Tech:AI 的下一件大事

Alex Hern AI 作家

你對周圍的世界了解多少?如果你閉上眼睛,你可能可以想像出你所在的房間——也許是整棟建築物。你可以勾勒出你往返工作地點和生活中其他主要地點的路線(儘管可能繪畫技巧有限)。而且這些知識不是靜態的。如果你知道有一輛車朝你駛來,你對它將如何繼續移動有相當清楚的概念——至少它不會沉入路面或跳到空中。如果你看到一片葉子從樹上飄落,你無法預測它下落的全部混沌本質,但你可以相當確信它會落地。你能做到這一切,是因為你有一個「世界模型」。而當前 AI 系統最大的弱點之一,就是它們沒有。

世界模型的概念早於 AI,其根源在於認知科學。但大型語言模型(LLM)的興起意味著這個概念被忽視了幾年。畢竟,如果一個 AI 系統僅憑一大堆文本就能做這麼多事,它真的需要一個明確的世界模型嗎?但現在,隨著 LLM 訓練成本激增,以及從同樣的技術中擠出改進變得越來越困難,鐘擺已經擺回來了。如果 2025 年被愉快地稱為「AI 代理元年」,那麼 2026 年可能屬於世界模型。

當你讀到這篇文章時,我正在卡達參加 Web Summit,所以《經濟學人》副主編 Tom Standage 和我在上週二聚在一起討論世界模型:它們是什麼、為什麼它們可能使 AI 系統更好,以及它們與現有 LLM 的關係。

然後,在週四,Google 發布了一個新的世界模型:Project Genie。這是我見過最令人印象深刻的世界模型。僅從一張圖像或一個文字提示,它就可以生成一個一致、逼真的世界,你可以在其中遊蕩約一分鐘。如果你在美國並擁有 Google AI Ultra 訂閱,試試看,你會更清楚地了解這項技術的發展方向。(如果你在美國以外,那麼抱歉——我們都得再等一段時間。)

即使在無限世界中漫遊的可能性對你沒有吸引力,支撐這些世界的技術仍然值得關注。它將影響 AI 的能力,並且是釋放從人形機器人到自動駕駛汽車等一切潛力的關鍵。請於倫敦時間週二下午 6 點——紐約時間下午 1 點——加入我們,了解原因,並在之後將您的反饋發送至 insider@economist.com。未來見!


← 返回列表