論文の概要: A Survey of Inductive Reasoning for Large Language Models
- arxiv url: http://arxiv.org/abs/2510.10182v1
- Date: Sat, 11 Oct 2025 11:45:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.830401
- Title: A Survey of Inductive Reasoning for Large Language Models
- Title(参考訳): 大規模言語モデルの帰納的推論に関する調査
- Authors: Kedi Chen, Dezhao Ruan, Yuhao Dan, Yaoting Wang, Siyu Yan, Xuecheng Wu, Yinqi Zhang, Qin Chen, Jie Zhou, Liang He, Biqing Qi, Linyang Li, Qipeng Guo, Xiaoming Shi, Wei Zhang,
- Abstract要約: 帰納的モードは知識の一般化に不可欠であり、人間の認知とよく一致している。
帰納的推論の重要性にもかかわらず、体系的な要約は存在しない。
本稿では,大規模言語モデルに対する帰納的推論の包括的調査を行う。
- 参考スコア(独自算出の注目度): 55.23215679173251
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reasoning is an important task for large language models (LLMs). Among all the reasoning paradigms, inductive reasoning is one of the fundamental types, which is characterized by its particular-to-general thinking process and the non-uniqueness of its answers. The inductive mode is crucial for knowledge generalization and aligns better with human cognition, so it is a fundamental mode of learning, hence attracting increasing interest. Despite the importance of inductive reasoning, there is no systematic summary of it. Therefore, this paper presents the first comprehensive survey of inductive reasoning for LLMs. First, methods for improving inductive reasoning are categorized into three main areas: post-training, test-time scaling, and data augmentation. Then, current benchmarks of inductive reasoning are summarized, and a unified sandbox-based evaluation approach with the observation coverage metric is derived. Finally, we offer some analyses regarding the source of inductive ability and how simple model architectures and data help with inductive tasks, providing a solid foundation for future research.
- Abstract(参考訳): 推論は、大きな言語モデル(LLM)にとって重要なタスクである。
すべての推論パラダイムの中で、帰納的推論は基本的なタイプの1つであり、それはその特定の対一般の思考過程と、その答えの非特異性によって特徴づけられる。
帰納的モードは知識の一般化に不可欠であり、人間の認知とよく一致しているため、学習の基本的なモードであり、興味を惹きつける。
帰納的推論の重要性にもかかわらず、体系的な要約は存在しない。
そこで本研究では, LLMの帰納的推論に関する包括的調査を行った。
まず、帰納的推論を改善する方法は、後トレーニング、テストタイムスケーリング、データ拡張の3つの主要な領域に分類される。
次に、帰納的推論の現在のベンチマークを要約し、観測範囲の計測値を用いたサンドボックスベースの統一評価手法を導出する。
最後に、帰納的能力の源泉と、モデルアーキテクチャとデータが帰納的タスクにどのように役立つかを分析し、将来の研究の確かな基盤を提供する。
関連論文リスト
- JustLogic: A Comprehensive Benchmark for Evaluating Deductive Reasoning in Large Language Models [51.99046112135311]
LLM(Large Language Models)の厳密な評価のための合成推論ベンチマークであるJustLogicを紹介する。
JustLogicは非常に複雑で、多様な言語パターン、語彙、引数構造を生成することができる。
実験の結果, (i) LLMは人体平均値よりも同等かそれ以上に機能するが, 人体天井よりも著しく低下することがわかった。
論文 参考訳(メタデータ) (2025-01-24T15:49:10Z) - MIRAGE: Evaluating and Explaining Inductive Reasoning Process in Language Models [19.81485079689837]
帰納的および帰納的段階における大規模言語モデルの能力を評価する。
モデルが正しい帰納的規則を使わずに常に正しい推論を行う傾向があることが分かる。
帰納的推論プロセスでは、モデルは機能空間における現在のテスト例に近い観察された事実に焦点を当てる傾向があります。
論文 参考訳(メタデータ) (2024-10-12T14:12:36Z) - Comparing Inferential Strategies of Humans and Large Language Models in Deductive Reasoning [25.732397636695882]
大規模言語モデル(LLM)では,人間の観察と類似した推論パターンが示される。
我々の研究は、モデルの構造と規模が、その好む推論方法に大きく影響していることを示します。
論文 参考訳(メタデータ) (2024-02-20T12:58:14Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。