論文の概要: Fundamental Reasoning Paradigms Induce Out-of-Domain Generalization in Language Models
- arxiv url: http://arxiv.org/abs/2602.08658v1
- Date: Mon, 09 Feb 2026 13:51:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.254775
- Title: Fundamental Reasoning Paradigms Induce Out-of-Domain Generalization in Language Models
- Title(参考訳): 基本推論パラダイムは言語モデルにおけるドメイン外一般化を誘導する
- Authors: Mingzi Cao, Xingwei Tan, Mahmud Akhter, Marco Valentino, Maria Liakata, Xi Wang, Nikolaos Aletras,
- Abstract要約: 本研究では,これらのパラダイム間の相互作用がLarge Language Model (LLM) の推論にどのように影響するかを明らかにした。
まず,3つの基本パラダイムのうちの1つを対象とする,記号的タスクからの推論トラジェクトリの新しいデータセットを収集する。
次に、これらのスキルをLLMに導入するための効果的な方法を検討する。
- 参考スコア(独自算出の注目度): 42.46871166429779
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deduction, induction, and abduction are fundamental reasoning paradigms, core for human logical thinking. Although improving Large Language Model (LLM) reasoning has attracted significant research efforts, the extent to which the fundamental paradigms induce generalization has yet to be systematically explored. In this study, we shed light on how the interplay between these core paradigms influences LLMs' reasoning behavior. To this end, we first collect a new dataset of reasoning trajectories from symbolic tasks, each targeting one of the three fundamental paradigms, to abstract from concrete world knowledge. Then, we investigate effective ways for inducing these skills into LLMs. We experiment with a battery of methods including simple fine-tuning, and more complex approaches to increase model depth, or transform a dense model to a mixture-of-experts. We comprehensively evaluate induced models on realistic out-of-domain tasks, that are entirely formulated in natural language and contain real-world knowledge. Our results reveal that our approach yields strong generalizability with substantial performance gains (up to $14.60$) across realistic tasks.
- Abstract(参考訳): 推論、帰納、誘拐は基本的な推論パラダイムであり、人間の論理的思考の中核である。
大規模言語モデル (LLM) 推論の改善は研究の成果を惹きつけているが、基本的なパラダイムが一般化を誘発する程度はまだ体系的に研究されていない。
本研究では,これらのパラダイム間の相互作用がLLMの推論行動にどのように影響するかを明らかにした。
この目的のために,我々はまず,3つの基本パラダイムの1つをターゲットにした,記号的タスクからの推論軌跡の新たなデータセットを収集し,具体的な世界知識から抽象化する。
次に,これらのスキルをLLMに導入するための効果的な方法を検討する。
モデル深度を増大させるための単純な微調整や、より複雑なアプローチ、あるいは高密度モデルをエキスパートの混合に変換するための一連の手法を実験する。
自然言語で完全に定式化され,実世界の知識を含む,現実的な領域外タスクの誘導モデルを包括的に評価する。
以上の結果から,本手法は現実的なタスクに対して,大幅な性能向上(最大14.60ドル)を達成できる可能性が示唆された。
関連論文リスト
- From Perception to Cognition: A Survey of Vision-Language Interactive Reasoning in Multimodal Large Language Models [66.36007274540113]
MLLM(Multimodal Large Language Models)は、物理的世界に対する深い人間的な理解と相互作用を達成するための試みである。
情報取得(知覚)や推論(認知)を行う際、しばしば浅く不整合な統合を示す。
この調査では、新しい統合分析フレームワーク「知覚から認知へ」を紹介した。
論文 参考訳(メタデータ) (2025-09-29T18:25:40Z) - LogiDynamics: Unraveling the Dynamics of Inductive, Abductive and Deductive Logical Inferences in LLM Reasoning [74.0242521818214]
本稿では,大言語モデル(LLM)におけるインダクティブ(システム1)と帰納的/帰納的(システム2)の推論の比較力学を体系的に検討する。
我々は、制御されたアナログ推論環境、多様度(テキスト、視覚、記号)、難易度、タスク形式(MCQ/フリーテキスト)を利用する。
我々の分析によると、System 2のパイプラインは一般的に、特に視覚的/象徴的なモダリティや難しいタスクにおいて優れており、System 1はテキストやより簡単な問題に対して競争力がある。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Comparing Inferential Strategies of Humans and Large Language Models in Deductive Reasoning [25.732397636695882]
大規模言語モデル(LLM)では,人間の観察と類似した推論パターンが示される。
我々の研究は、モデルの構造と規模が、その好む推論方法に大きく影響していることを示します。
論文 参考訳(メタデータ) (2024-02-20T12:58:14Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。