論文の概要: Analysis of Error Sources in LLM-based Hypothesis Search for Few-Shot Rule Induction
- arxiv url: http://arxiv.org/abs/2509.01016v1
- Date: Sun, 31 Aug 2025 22:42:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.502125
- Title: Analysis of Error Sources in LLM-based Hypothesis Search for Few-Shot Rule Induction
- Title(参考訳): LLMに基づくFew-Shotルール誘導のための仮説探索における誤差源の解析
- Authors: Aishni Parab, Hongjing Lu, Ying Nian Wu, Sumit Gulwani,
- Abstract要約: LLMに基づく仮説探索フレームワークと,数ショットルール誘導タスクの直接プログラム生成手法を比較した。
その結果,仮説探索は人間に匹敵する性能を達成し,直接プログラム生成は顕著に遅れていることがわかった。
- 参考スコア(独自算出の注目度): 39.93231455166502
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inductive reasoning enables humans to infer abstract rules from limited examples and apply them to novel situations. In this work, we compare an LLM-based hypothesis search framework with direct program generation approaches on few-shot rule induction tasks. Our findings show that hypothesis search achieves performance comparable to humans, while direct program generation falls notably behind. An error analysis reveals key bottlenecks in hypothesis generation and suggests directions for advancing program induction methods. Overall, this paper underscores the potential of LLM-based hypothesis search for modeling inductive reasoning and the challenges in building more efficient systems.
- Abstract(参考訳): 帰納的推論は、限られた例から抽象的なルールを推論し、それらを新しい状況に適用することを可能にする。
本研究では,LLMに基づく仮説探索フレームワークと,数発ルール誘導タスクの直接プログラム生成手法を比較した。
その結果,仮説探索は人間に匹敵する性能を達成し,直接プログラム生成は顕著に遅れていることがわかった。
エラー解析は,仮説生成における重要なボトルネックを明らかにし,プログラム誘導手法の進行方向を提案する。
本稿では, LLMに基づく帰納的推論のための仮説探索の可能性と, より効率的なシステム構築の課題について述べる。
関連論文リスト
- InductionBench: LLMs Fail in the Simplest Complexity Class [53.70978746199222]
大規模言語モデル(LLM)は推論において顕著に改善されている。
帰納的推論(inductive reasoning)は、観測されたデータから基礎となるルールを推測するものであり、まだ探索されていない。
本稿では, LLMの帰納的推論能力を評価するための新しいベンチマークであるインジェクションベンチを紹介する。
論文 参考訳(メタデータ) (2025-02-20T03:48:00Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Hypothesis Search: Inductive Reasoning with Language Models [39.03846394586811]
最近の研究は「文脈学習」を直接促すことで帰納的推論タスクにおける大規模言語モデルの評価を行っている
これは単純な帰納的タスクではうまく機能するが、Abstraction and Reasoning Corpus (ARC)のような複雑なタスクではうまく機能しない。
本研究では,複数の抽象レベルで明示的な仮説を生成することにより,LLMの帰納的推論能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-09-11T17:56:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。