論文の概要: Can MLLMs Absorb Math Reasoning Abilities from LLMs as Free Lunch?
- arxiv url: http://arxiv.org/abs/2510.14387v1
- Date: Thu, 16 Oct 2025 07:38:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.762023
- Title: Can MLLMs Absorb Math Reasoning Abilities from LLMs as Free Lunch?
- Title(参考訳): MLLMはフリーランチとしてLSMから数学を吸収できるか?
- Authors: Yijie Hu, Zihao Zhou, Kaizhu Huang, Xiaowei Huang, Qiufeng Wang,
- Abstract要約: 数学推論は、大規模言語モデル(LLM)において重要な能力である。
本稿では,まずMLLMとMath LLMの両方の推論関連パラメータを識別し,それらをMLLMのサブ空間に投影するIP-Mergingを提案する。
IP-Mergingはパラメータを直接調整するため、チューニング不要のアプローチである。
- 参考スコア(独自算出の注目度): 45.99128235364487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Math reasoning has been one crucial ability of large language models (LLMs), where significant advancements have been achieved in recent years. However, most efforts focus on LLMs by curating high-quality annotation data and intricate training (or inference) paradigms, while the math reasoning performance of multi-modal LLMs (MLLMs) remains lagging behind. Since the MLLM typically consists of an LLM and a vision block, we wonder: Can MLLMs directly absorb math reasoning abilities from off-the-shelf math LLMs without tuning? Recent model-merging approaches may offer insights into this question. However, they overlook the alignment between the MLLM and LLM, where we find that there is a large gap between their parameter spaces, resulting in lower performance. Our empirical evidence reveals two key factors behind this issue: the identification of crucial reasoning-associated layers in the model and the mitigation of the gaps in parameter space. Based on the empirical insights, we propose IP-Merging that first identifies the reasoning-associated parameters in both MLLM and Math LLM, then projects them into the subspace of MLLM, aiming to maintain the alignment, and finally merges parameters in this subspace. IP-Merging is a tuning-free approach since parameters are directly adjusted. Extensive experiments demonstrate that our IP-Merging method can enhance the math reasoning ability of MLLMs directly from Math LLMs without compromising their other capabilities.
- Abstract(参考訳): 数学推論は大規模言語モデル(LLM)において重要な能力であり、近年大きな進歩を遂げている。
しかし,MLLM(Multi-modal LLMs)の数学推論性能は遅れているものの,高品質なアノテーションデータや複雑なトレーニング(あるいは推論)パラダイムをキュレートすることでLLMに重点を置いている。
MLLMは、通常、LLMとビジョンブロックで構成されているので、MLLMは、既成の数学 LLM の数学推論能力を、チューニングなしで直接吸収できるのだろうか?
最近のモデルマージアプローチは、この問題に対する洞察を与えるかもしれない。
しかし、MLLM と LLM の整合性を見落とし、パラメータ空間の間に大きなギャップがあることがわかり、結果として性能が低下する。
我々の経験的証拠は、モデルにおける決定的推論関連レイヤの同定とパラメータ空間のギャップの緩和という、この問題の背景にある2つの重要な要因を明らかにしている。
実験的な知見に基づいて,まずMLLMとMath LLMの推論関連パラメータを識別し,それらをMLLMのサブスペースに投影し,アライメントの維持を目標とし,最終的にサブスペース内のパラメータをマージするIP-Mergingを提案する。
IP-Mergingはパラメータを直接調整するため、チューニング不要のアプローチである。
我々のIP-Merging法は,Math LLMから直接MLLMの算数推論能力を向上できることを示した。
関連論文リスト
- Weaker LLMs' Opinions Also Matter: Mixture of Opinions Enhances LLM's Mathematical Reasoning [3.0449420665138485]
大規模言語モデル(LLM)は、特に数学において、公式な推論能力への関心を高めている。
そこで本研究では,より弱いLLMからの意見の混合(MoO)を利用して,(相対的に)強いLLM推論を強化するポストトレーニング手法を提案する。
その結果,LLMの考え方を取り入れることで,数学的推論が平均5%向上し,推論作業における多様な視点の価値が浮き彫りになることがわかった。
論文 参考訳(メタデータ) (2025-02-26T23:22:02Z) - Extend Model Merging from Fine-Tuned to Pre-Trained Large Language Models via Weight Disentanglement [72.97553348776425]
我々は、FTからPT LLMへのマージ技術の適用性を拡大するための先駆的な取り組みを行っている。
WeIght DisENtanglement (WIDEN) に基づくアプローチを導入し、マージ範囲を効果的に拡張する。
Qwen1.5-Chat (FT LLM with instruction-following skills) と Sailor (PT LLM with multilingual abilities) を7Bおよび14Bモデルスケールにマージする。
論文 参考訳(メタデータ) (2024-08-06T10:46:46Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - LLMs Can't Plan, But Can Help Planning in LLM-Modulo Frameworks [18.068035947969044]
計画と推論タスクにおけるLLM(Large Language Models)の役割には、かなりの混乱がある。
自己回帰型LSMは、それ自体で計画や自己検証を行うことはできない、と我々は主張する。
本稿では,LLMの強みと外部モデルベース検証器を併用した bf LLM-Modulo Framework のビジョンを提案する。
論文 参考訳(メタデータ) (2024-02-02T14:43:18Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。