論文の概要: L2V-CoT: Cross-Modal Transfer of Chain-of-Thought Reasoning via Latent Intervention
- arxiv url: http://arxiv.org/abs/2511.17910v1
- Date: Sat, 22 Nov 2025 04:25:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.510367
- Title: L2V-CoT: Cross-Modal Transfer of Chain-of-Thought Reasoning via Latent Intervention
- Title(参考訳): L2V-CoT:ラテントインターベンションによるチェーン・オブ・ソート推論のクロスモーダルトランスファー
- Authors: Yuliang Zhan, Xinyu Tang, Han Wan, Jian Li, Ji-Rong Wen, Hao Sun,
- Abstract要約: Chain-of-Thought (CoT)推論は、大規模言語モデル(LLM)の機能を大幅に強化した。
既存のアプローチでは、高いトレーニングコストが必要か、アーキテクチャアライメントが必要になります。
L2V-CoTは,LLMからVLMへCoT推論を伝達する新しい訓練不要潜伏介入手法である。
- 参考スコア(独自算出の注目度): 47.82350055363378
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, Chain-of-Thought (CoT) reasoning has significantly enhanced the capabilities of large language models (LLMs), but Vision-Language Models (VLMs) still struggle with multi-step reasoning tasks due to limited multimodal reasoning data. To bridge this gap, researchers have explored methods to transfer CoT reasoning from LLMs to VLMs. However, existing approaches either need high training costs or require architectural alignment. In this paper, we use Linear Artificial Tomography (LAT) to empirically show that LLMs and VLMs share similar low-frequency latent representations of CoT reasoning despite architectural differences. Based on this insight, we propose L2V-CoT, a novel training-free latent intervention approach that transfers CoT reasoning from LLMs to VLMs. L2V-CoT extracts and resamples low-frequency CoT representations from LLMs in the frequency domain, enabling dimension matching and latent injection into VLMs during inference to enhance reasoning capabilities. Extensive experiments demonstrate that our approach consistently outperforms training-free baselines and even surpasses supervised methods.
- Abstract(参考訳): 近年、Chain-of-Thought(CoT)推論は大規模言語モデル(LLM)の機能を大幅に向上させたが、VLM(Vision-Language Models)は、限られたマルチモーダル推論データのために、多段階推論タスクに苦戦している。
このギャップを埋めるために、研究者はLLMからVLMへCoT推論を転送する方法を模索した。
しかし、既存のアプローチでは、高いトレーニングコストが必要か、アーキテクチャアライメントが必要になります。
本稿では,Linear Artificial Tomography (LAT) を用いて,LLM と VLM がアーキテクチャの違いにもかかわらず,CoT 推論の低周波遅延表現を共用していることを実証的に示す。
この知見に基づいて,L2V-CoTは,LLMからVLMへのCoT推論を伝達する新しいトレーニング不要潜伏介入手法である。
L2V-CoTは、周波数領域のLLMから低周波CoT表現を抽出し再サンプリングし、推論中に次元マッチングとVLMへの潜伏注入を可能にし、推論能力を高める。
大規模な実験により、我々のアプローチはトレーニングなしのベースラインを一貫して上回り、教師付き手法を超越することさえ示している。
関連論文リスト
- LongLLaDA: Unlocking Long Context Capabilities in Diffusion LLMs [63.580867975515474]
拡散LDMと従来の自己回帰LDMの長文性能を比較検討する。
LLaDAとNTKベースのRoPE外挿法を統合したLongLLaDAを提案する。
論文 参考訳(メタデータ) (2025-06-17T11:45:37Z) - Satori: Reinforcement Learning with Chain-of-Action-Thought Enhances LLM Reasoning via Autoregressive Search [57.28671084993782]
大規模言語モデル(LLM)は、様々な領域にまたがる顕著な推論能力を示している。
近年の研究では、テスト時間計算の増加はLLMの推論能力を高めることが示されている。
そこで我々は,1)COAT推論形式を内部化するための小規模な形式調整段階,2)強化学習を活用した大規模自己改善段階を提案する。
論文 参考訳(メタデータ) (2025-02-04T17:26:58Z) - On the Hardness of Faithful Chain-of-Thought Reasoning in Large Language Models [25.029579061612456]
大規模言語モデル(LLM)は、医療などの重要な領域における現実世界のアプリケーションにますます採用されている。
これらのモデルによって生成されたCoT(Chain-of-Thought)推論が、その基盤となる振る舞いを忠実に捉えることが重要である。
論文 参考訳(メタデータ) (2024-06-15T13:16:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。