WAIC 2025 大会:Intern-S1(代号 “书生”)发布#
上海人工智能实验室在 WAIC 2025 大会上发布并开源了最新的科学多模态大模型 Intern-S1(代号 “书生”)。
体验地址#
资源链接#
模型架构#
Intern-S1 以 MoE 架构为基础,拥有:
- 2350 億パラメータ の言語モデル部分(Qwen3)
- 60 億パラメータ の視覚エンコーダ(IntrenViT)
- 総規模:2410 億パラメータ
训练数据与能力#
- 5T のトレーニングデータセット、そのうち半分以上は専門分野の知識。
- コンテキスト長:128K tokens、複数のトップ会議論文を処理し、前後の連携分析が可能。
数据解析能力#
- 科研図表のデータトレンドを読み取り、文字と結びつけて背後の論理を説明できる。
- 図に表示されている内容を理解し、表す物理プロセスを解釈し、次の実験を推導する。
创新特性#
Intern-S1 は、異なるモダリティのデータに自動的にトークン化を行うクロスモーダル科学解析エンジンを初めて開発しました。化学分子式、タンパク質配列などの特殊な番号に対して、より効率的なエンコーディング表現を提供し、圧縮率は 70% 以上向上し、専門的で複雑なデータを理解する能力を持っています。
训练范式#
汎用性と専門性を兼ね備えるために、Intern-S1 は「汎用専門融合のトレーニングパラダイム」を提案しました:
- 大量の汎用科研データを利用してモデルの知識の幅を広げる。
- 多くの分野の専門家モデルをトレーニングし、高い可読性と明確な思考経路を持つ専門データを生成し、カスタマイズされた分野のインテリジェンスによってその品質を検証します。
このクローズドループメカニズムを通じて事前トレーニングにフィードバックを行い、Intern-S1 は強力な汎用推論能力と複数のトップ専門能力を同時に備え、1 つのモデルで多様な専門タスクを解決する突破口を実現しました。
训练效率#
モデルの後期トレーニングでは、大規模なマルチタスク強化学習フレームワーク Inte を導入しました。アルゴリズムは「混合報酬」を主打ちし、検証可能なタスクにはルールと検証者が報酬を与えます。このシステムにより、トレーニングのエネルギー消費は Grok 4 の 1% に過ぎず、性能は全く劣りません。
结论#
Intern-S1 は、科研の多モーダルの標準的な答えになるのでしょうか?今結論を出すのは早いですが、それは私たちに別の道を示しました —— 単に大きなモデルでパラメータを競うのではなく、実際のニーズから出発して、本当に難しいが価値のあるアプリケーションシーンを解決することです。Intern-S1 の方向性は、数年前の皆が汎用能力を追求していた方向とは異なります。GPT、Gemini、Claude などのモデルは対話やコード生成において成熟していますが、科研の図を分析したり実験を支援したりする際には、結果が不安定で論理が欠けていることが多く、複雑な公式は彼らにとっては暗号のようです。
Intern-S1 は科研という難点から切り込み、多モーダルを文献解析や実験支援などの「高圧区」に真に適用し、「専門型 AI」への可能性の通路を開きました。