論文の概要: A MIND for Reasoning: Meta-learning for In-context Deduction
- arxiv url: http://arxiv.org/abs/2505.14313v1
- Date: Tue, 20 May 2025 13:00:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.236246
- Title: A MIND for Reasoning: Meta-learning for In-context Deduction
- Title(参考訳): MIND for Reasoning: In-context Deductionのためのメタラーニング
- Authors: Leonardo Bertolazzi, Manuel Vargas Guzmán, Raffaella Bernardi, Maciej Malicki, Jakub Szymanik,
- Abstract要約: In-context Deduction (MIND) のためのメタラーニングを提案する。
以上の結果から,MINDは1.5Bから7Bまでの小さなLMの一般化を著しく改善することが示された。
注目すべきは、このタスクにおいてMINDで微調整された小さなモデルは、GPT-4oやo3-miniのような最先端のLLMよりも優れていることである。
- 参考スコア(独自算出の注目度): 3.4383794581359184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly evaluated on formal tasks, where strong reasoning abilities define the state of the art. However, their ability to generalize to out-of-distribution problems remains limited. In this paper, we investigate how LLMs can achieve a systematic understanding of deductive rules. Our focus is on the task of identifying the appropriate subset of premises within a knowledge base needed to derive a given hypothesis. To tackle this challenge, we propose Meta-learning for In-context Deduction (MIND), a novel few-shot meta-learning fine-tuning approach. The goal of MIND is to enable models to generalize more effectively to unseen knowledge bases and to systematically apply inference rules. Our results show that MIND significantly improves generalization in small LMs ranging from 1.5B to 7B parameters. The benefits are especially pronounced in smaller models and low-data settings. Remarkably, small models fine-tuned with MIND outperform state-of-the-art LLMs, such as GPT-4o and o3-mini, on this task.
- Abstract(参考訳): 大規模言語モデル(LLM)は、強い推論能力が最先端技術を定義する形式的タスクにおいて、ますます評価される。
しかし、アウト・オブ・ディストリビューション問題に一般化する能力は依然として限られている。
本稿では, LLM が帰納規則の体系的理解をいかに達成できるかを考察する。
我々の焦点は、与えられた仮説を導き出すのに必要な知識ベース内で、前提の適切なサブセットを特定するタスクである。
この課題に対処するために,メタラーニングによるメタテキスト推論(MIND: Meta-learning for In-context Deduction)を提案する。
MINDの目標は、モデルが未知の知識ベースをより効果的に一般化し、推論ルールを体系的に適用できるようにすることである。
その結果,MINDは1.5Bから7Bまでの小さなLMの一般化を著しく改善することがわかった。
この利点は、特に小さなモデルと低いデータ設定で顕著である。
注目すべきは、このタスクにおいてMINDで微調整された小さなモデルは、GPT-4oやo3-miniのような最先端のLLMよりも優れていることである。
関連論文リスト
- InductionBench: LLMs Fail in the Simplest Complexity Class [53.70978746199222]
大規模言語モデル(LLM)は推論において顕著に改善されている。
帰納的推論(inductive reasoning)は、観測されたデータから基礎となるルールを推測するものであり、まだ探索されていない。
本稿では, LLMの帰納的推論能力を評価するための新しいベンチマークであるインジェクションベンチを紹介する。
論文 参考訳(メタデータ) (2025-02-20T03:48:00Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - IDEA: Enhancing the Rule Learning Ability of Large Language Model Agent through Induction, Deduction, and Abduction [3.961279440272764]
対話型環境下での大規模言語モデルのルール学習能力を評価するためにRULEARNを導入する。
誘導, 誘引, アブダクションのプロセスを統合する新しい推論フレームワークであるIDEAを提案する。
5つの代表的なLCMを含むIDEAフレームワークの評価は,ベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-08-19T23:37:07Z) - From Understanding to Utilization: A Survey on Explainability for Large
Language Models [27.295767173801426]
この調査は、Large Language Models (LLMs) における説明可能性の向上を示唆している。
主に、トレーニング済みの Transformer ベースの LLM に重点を置いています。
説明可能性の活用を考える際に、モデル編集、制御生成、モデル拡張に集中するいくつかの魅力的な方法を検討する。
論文 参考訳(メタデータ) (2024-01-23T16:09:53Z) - MR-GSM8K: A Meta-Reasoning Benchmark for Large Language Model Evaluation [60.65820977963331]
大規模言語モデル(LLM)のための新しい評価パラダイムを導入する。
このパラダイムは、しばしば推論プロセスを無視する結果指向の評価から、より包括的な評価へと重点を移す。
GSM8Kデータセットにこのパラダイムを適用し,MR-GSM8Kベンチマークを開発した。
論文 参考訳(メタデータ) (2023-12-28T15:49:43Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Knowledge-Augmented Reasoning Distillation for Small Language Models in
Knowledge-Intensive Tasks [90.11273439036455]
大規模言語モデル(LLM)は知識集約推論タスクにおいて有望なパフォーマンスを示している。
外部知識ベースから得られた知識を付加したLPMから理性を生成するための,小型LMを微調整する新しい手法であるKARDを提案する。
我々は,KARDが知識集約型推論データセットにおいて,小さなT5モデルとGPTモデルの性能を著しく向上させることを示す。
論文 参考訳(メタデータ) (2023-05-28T13:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。