論文の概要: System 1&2 Synergy via Dynamic Model Interpolation
- arxiv url: http://arxiv.org/abs/2601.21414v1
- Date: Thu, 29 Jan 2026 08:53:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.680737
- Title: System 1&2 Synergy via Dynamic Model Interpolation
- Title(参考訳): 動的モデル補間によるシステム1&2のシナジー
- Authors: Chenxu Yang, Qingyi Si, Chong Tian, Xiyu Liu, Dingyu Yao, Chuanyu Qin, Zheng Lin, Weiping Wang, Jiaqi Wang,
- Abstract要約: 出力長は、根本原因ではなく、単にモデルの認知的構成の症状であると主張する。
textbfDAMI (textbfDyntextbfAmic textbfModel textbfInterpolation) を提案する。
5つの数学的推論ベンチマークの実験は、DAMIがシンキングモデルよりも高い精度を達成することを示した。
- 参考スコア(独自算出の注目度): 23.958415829714458
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training a unified language model that adapts between intuitive System 1 and deliberative System 2 remains challenging due to interference between their cognitive modes. Recent studies have thus pursued making System 2 models more efficient. However, these approaches focused on output control, limiting what models produce. We argue that this paradigm is misaligned: output length is merely a symptom of the model's cognitive configuration, not the root cause. In this work, we shift the focus to capability control, which modulates \textit{how models think} rather than \textit{what they produce}. To realize this, we leverage existing Instruct and Thinking checkpoints through dynamic parameter interpolation, without additional training. Our pilot study establishes that linear interpolation yields a convex, monotonic Pareto frontier, underpinned by representation continuity and structural connectivity. Building on this, we propose \textbf{DAMI} (\textbf{D}yn\textbf{A}mic \textbf{M}odel \textbf{I}nterpolation), a framework that estimates a query-specific Reasoning Intensity $λ(q)$ to configure cognitive depth. For training-based estimation, we develop a preference learning method encoding accuracy and efficiency criteria. For zero-shot deployment, we introduce a confidence-based method leveraging inter-model cognitive discrepancy. Experiments on five mathematical reasoning benchmarks demonstrate that DAMI achieves higher accuracy than the Thinking model while remaining efficient, effectively combining the efficiency of System 1 with the reasoning depth of System 2.
- Abstract(参考訳): 直感的なシステム1と熟考的システム2の間に適応する統一言語モデルを訓練することは、認知モード間の干渉のため、依然として困難である。
近年の研究では、システム2モデルをより効率的にする研究が進められている。
しかしながら、これらのアプローチは出力制御に焦点を合わせ、モデルが生み出すものを制限する。
出力長は、根本原因ではなく、単にモデルの認知的構成の症状である。
この作業では、焦点を機能制御にシフトし、それらが生成するものではなく、 \textit{how model think}を変調する。
これを実現するために,動的パラメータ補間によって既存のインストラクションと思考チェックポイントを活用する。
我々のパイロット研究は、線形補間により、表現連続性と構造接続性に支えられた凸な単調パレートフロンティアが得られることを証明している。
これに基づいて、クエリ固有のReasoning Intensity $λ(q)$を推定し、認知深度を設定するフレームワークである、 \textbf{D}yn\textbf{A}mic \textbf{M}odel \textbf{I}nterpolationを提案する。
学習に基づく評価のために,精度と効率の基準を符号化する選好学習法を開発した。
ゼロショット展開には,モデル間認識の相違を利用した信頼度に基づく手法を導入する。
5つの数学的推論ベンチマークの実験により、DAMIはシステム1の効率とシステム2の推論深度を効果的に組み合わせつつ、思考モデルよりも高い精度を達成することが示された。
関連論文リスト
- Unifying Tree Search Algorithm and Reward Design for LLM Reasoning: A Survey [92.71325249013535]
線形木探索はLarge Language Model (LLM) 研究の基盤となっている。
本稿では,検索アルゴリズムを3つのコアコンポーネントに分解する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-11T03:29:18Z) - Sycophancy Mitigation Through Reinforcement Learning with Uncertainty-Aware Adaptive Reasoning Trajectories [58.988535279557546]
適応推論トラジェクトリを用いたtextbf sycophancy Mitigation を提案する。
SMARTは,分布外の入力に対して強い性能を維持しながら,サイコファンティクスの挙動を著しく低下させることを示した。
論文 参考訳(メタデータ) (2025-09-20T17:09:14Z) - Incentivizing Dual Process Thinking for Efficient Large Language Model Reasoning [75.04643265875072]
大規模推論モデル(LRM)は複雑な推論タスクに対して強い性能を示してきたが、しばしば過度に考えることに悩まされている。
認知科学における二重プロセス理論に着想を得て,適応認知政策最適化を提案する。
ACPOは、適応的な認知アロケーションと動的システムスイッチによって、LRMの効率的な推論を可能にする。
論文 参考訳(メタデータ) (2025-05-22T07:15:08Z) - Unlocking Efficient Long-to-Short LLM Reasoning with Model Merging [17.038807261969033]
Long-to-Short (L2S) 推論は推論深度と実用効率のバランスをとることを目的としている。
モデルマージは、System 1モデルの迅速な思考能力とSystem 2モデルの方法論的推論を統合することで、コスト効率が高く堅牢な代替手段を提供する。
実験の結果,モデルマージにより平均応答長を最大55%削減できることがわかった。
論文 参考訳(メタデータ) (2025-03-26T15:34:37Z) - Reasoning on a Spectrum: Aligning LLMs to System 1 and System 2 Thinking [2.8972218767527527]
大きな言語モデル(LLM)は印象的な推論能力を示すが、構造化されたステップバイステップの推論に依存しているため、限界が示される。
この作業は、ステップバイステップの推論が常に最適であるという仮定に挑戦し、タスク要求に基づいた推論戦略を適用する必要性を強調します。
論文 参考訳(メタデータ) (2025-02-18T02:58:37Z) - Unifying Language Learning Paradigms [96.35981503087567]
データセットやセットアップ全体にわたって普遍的に有効である事前学習モデルのための統一的なフレームワークを提案する。
本研究では, 事前学習対象を相互に配置し, 異なる対象間の補間を効果的に行う方法を示す。
また,テキスト内学習において,ゼロショットSuperGLUEで175B GPT-3,ワンショット要約でT5-XXLの性能を3倍に向上させた。
論文 参考訳(メタデータ) (2022-05-10T19:32:20Z) - Improving Coherence and Consistency in Neural Sequence Models with
Dual-System, Neuro-Symbolic Reasoning [49.6928533575956]
我々は、神経系1と論理系2の間を仲介するために神経推論を用いる。
強靭なストーリー生成とグラウンドド・インストラクション・フォローリングの結果、このアプローチは神経系世代におけるコヒーレンスと精度を高めることができることを示した。
論文 参考訳(メタデータ) (2021-07-06T17:59:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。