本文介紹了一個理解人工智慧在科學中應用的框架,區分了兩類主要模型:「科學家」(大型語言模型,LLMs)與「模擬器」(領域特定基礎模型)。大型語言模型擅長推理、綜合知識和生成假設,其運作方式類似人類科學家。它們正透過自動化實驗室助理和數據平台等工具,被整合到科學工作流程中。
然而,科學進步同樣需要「模擬器」——這類模型直接從物理數據中學習,以預測特定領域(如生物學、材料科學或天氣預報)的結果。這些模擬器依賴的是領域特定的架構和數據,而不僅僅是語言。
文章論證,儘管大型語言模型在涉及文本和推理的任務上非常強大,但許多科學挑戰——例如治癒疾病或設計新材料——需要透過數據驅動的模擬來理解物理世界。物理學由於其優雅、可壓縮的定律,往往適合理論驅動的模擬,但生物學則更為複雜,缺乏簡單的統一理論。因此,基於經驗數據構建的模擬器至關重要。
像Google DeepMind用於天氣預報的GraphCast和用於蛋白質結構預測的AlphaFold等例子,展示了學習型模擬器如何透過利用現有科學知識和數據,超越傳統的基於物理學的方法。然而,這些成功依賴於專門的架構和高質量的領域數據,而不僅僅是基於Transformer的大型語言模型。
一個關鍵挑戰,特別是在生物學領域,是數據基礎設施:濕實驗室數據嘈雜、成本高昂且通常是專有的。像Noetik和Biohub這樣的公司正在致力於多模態數據收集,但進展可能緩慢且集中在狹窄的領域。
文章總結道,雖然前沿實驗室正在推進大型語言模型(「科學家」)的發展,但領域特定的模擬器和數據基礎設施需要單獨的投資、專業知識和時間線。像Lila Sciences和Periodic Labs這樣的公司正押注於自動化實驗室和專業模型。
真正由人工智慧驅動的科學發現,將取決於將大型語言模型的推理能力與模擬器的物理預測能力以及穩健的數據系統相結合,而不僅僅是等待通用人工智慧(AGI)的到來。相關討論應超越對通用人工智慧時間線的關注,轉而涵蓋科學中多元化的、物理世界的瓶頸。