banner
andrewji8

Being towards death

Heed not to the tree-rustling and leaf-lashing rain, Why not stroll along, whistle and sing under its rein. Lighter and better suited than horses are straw sandals and a bamboo staff, Who's afraid? A palm-leaf plaited cape provides enough to misty weather in life sustain. A thorny spring breeze sobers up the spirit, I feel a slight chill, The setting sun over the mountain offers greetings still. Looking back over the bleak passage survived, The return in time Shall not be affected by windswept rain or shine.
telegram
twitter
github

科學多模態大模型Intern-S1(代號:書生)

WAIC 2025 大會:Intern-S1(代號 “書生”)發布#

image

上海人工智能實驗室在 WAIC 2025 大會上發布並開源了最新的科學多模態大模型 Intern-S1(代號 “書生”)。

體驗地址#

資源鏈接#

模型架構#

Intern-S1 以 MoE 架構為基礎,擁有:

  • 2350 億參數 的語言模型部分(Qwen3)
  • 60 億參數 的視覺編碼器(IntrenViT)
  • 總規模:2410 億參數

訓練數據與能力#

  • 5T 的訓練數據集,其中超過一半是專業領域知識。
  • 上下文長度:128K tokens,能夠處理多篇頂會論文並進行前後串聯分析。

數據解析能力#

  • 能夠讀取科研圖表中的數據趨勢,並結合文字解釋背後的邏輯。
  • 理解圖中顯示的內容,解讀所代表的物理過程,並推導下一步實驗。

創新特性#

Intern-S1 首創了跨模態科學解析引擎,針對不同模態的數據自適應地進行分詞編碼。對化學分子式、蛋白質序列等特殊序號提供了更高效的編碼表示,壓縮率提升了 70% 以上,使其具備理解專業、複雜數據的能力。

訓練範式#

為了兼顧通用性與專業性,Intern-S1 提出了 “通專融合同的訓練範式”:

  • 利用海量的通用科研數據拓展模型知識廣度。
  • 訓練眾多領域專家模型生成高可讀性、思維路徑清晰的專業數據,並由定制的領域智能驗證其質量。

通過這一閉環機制反哺預訓練,Intern-S1 同時具備了強大的通用推理能力和多項頂尖的專業能力,實現了一個模型解決多種專業任務的突破。

訓練效率#

在模型後期訓練中引入了大規模多任務強化學習框架 Inte。算法上主打 “混合獎勵”—— 能驗證的任務使用規則和驗證器給獎勵。這套體系讓它的訓練能耗只有 Grok 4 的 1%,性能卻毫不遜色。

結論#

Intern-S1 會不會成為科研多模態的標準答案?現在下結論還早,但它讓我們看到了另一條路徑 —— 不是一味做大模型拼參數,而是從實際需求出發,去解決真正難但有價值的應用場景。Intern-S1 的方向與前幾年大家追求通用能力的方向有所不同。雖然 GPTGeminiClaude 等模型在對話和代碼生成方面很成熟,但在分析科研圖譜或輔助設計實驗時,結果經常不穩定且缺乏邏輯,複雜的公式對它們來說就是亂碼。

Intern-S1 則從科研這一難點切入,將多模態真正應用於文獻解析、實驗輔助等 “高壓區”,打開了一條通往 “專業型 AI” 的可能性通道。

載入中......
此文章數據所有權由區塊鏈加密技術和智能合約保障僅歸創作者所有。