WAIC 2025 大會:Intern-S1(代號 “書生”)發布#
上海人工智能實驗室在 WAIC 2025 大會上發布並開源了最新的科學多模態大模型 Intern-S1(代號 “書生”)。
體驗地址#
資源鏈接#
模型架構#
Intern-S1 以 MoE 架構為基礎,擁有:
- 2350 億參數 的語言模型部分(Qwen3)
- 60 億參數 的視覺編碼器(IntrenViT)
- 總規模:2410 億參數
訓練數據與能力#
- 5T 的訓練數據集,其中超過一半是專業領域知識。
- 上下文長度:128K tokens,能夠處理多篇頂會論文並進行前後串聯分析。
數據解析能力#
- 能夠讀取科研圖表中的數據趨勢,並結合文字解釋背後的邏輯。
- 理解圖中顯示的內容,解讀所代表的物理過程,並推導下一步實驗。
創新特性#
Intern-S1 首創了跨模態科學解析引擎,針對不同模態的數據自適應地進行分詞編碼。對化學分子式、蛋白質序列等特殊序號提供了更高效的編碼表示,壓縮率提升了 70% 以上,使其具備理解專業、複雜數據的能力。
訓練範式#
為了兼顧通用性與專業性,Intern-S1 提出了 “通專融合同的訓練範式”:
- 利用海量的通用科研數據拓展模型知識廣度。
- 訓練眾多領域專家模型生成高可讀性、思維路徑清晰的專業數據,並由定制的領域智能驗證其質量。
通過這一閉環機制反哺預訓練,Intern-S1 同時具備了強大的通用推理能力和多項頂尖的專業能力,實現了一個模型解決多種專業任務的突破。
訓練效率#
在模型後期訓練中引入了大規模多任務強化學習框架 Inte。算法上主打 “混合獎勵”—— 能驗證的任務使用規則和驗證器給獎勵。這套體系讓它的訓練能耗只有 Grok 4 的 1%,性能卻毫不遜色。
結論#
Intern-S1 會不會成為科研多模態的標準答案?現在下結論還早,但它讓我們看到了另一條路徑 —— 不是一味做大模型拼參數,而是從實際需求出發,去解決真正難但有價值的應用場景。Intern-S1 的方向與前幾年大家追求通用能力的方向有所不同。雖然 GPT、Gemini、Claude 等模型在對話和代碼生成方面很成熟,但在分析科研圖譜或輔助設計實驗時,結果經常不穩定且缺乏邏輯,複雜的公式對它們來說就是亂碼。
Intern-S1 則從科研這一難點切入,將多模態真正應用於文獻解析、實驗輔助等 “高壓區”,打開了一條通往 “專業型 AI” 的可能性通道。