論文の概要: Problem-Solving Logic Guided Curriculum In-Context Learning for LLMs Complex Reasoning
- arxiv url: http://arxiv.org/abs/2502.15401v1
- Date: Fri, 21 Feb 2025 12:00:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 16:09:51.173535
- Title: Problem-Solving Logic Guided Curriculum In-Context Learning for LLMs Complex Reasoning
- Title(参考訳): LLM合成推論のための問題解論理ガイド付きカリキュラムインテクスト学習
- Authors: Xuetao Ma, Wenbin Jiang, Hua Huang,
- Abstract要約: 本研究では,問題解決論理によって導かれるカリキュラムICL戦略を提案する。
問題解決ロジックを解析し、カリキュラム学習に基づいてそれらを注文することで、実演例を選択する。
提案手法は,従来のICL手法よりも性能と効率の点で優れていた。
- 参考スコア(独自算出の注目度): 20.09682048610498
- License:
- Abstract: In-context learning (ICL) can significantly enhance the complex reasoning capabilities of large language models (LLMs), with the key lying in the selection and ordering of demonstration examples. Previous methods typically relied on simple features to measure the relevance between examples. We argue that these features are not sufficient to reflect the intrinsic connections between examples. In this study, we propose a curriculum ICL strategy guided by problem-solving logic. We select demonstration examples by analyzing the problem-solving logic and order them based on curriculum learning. Specifically, we constructed a problem-solving logic instruction set based on the BREAK dataset and fine-tuned a language model to analyze the problem-solving logic of examples. Subsequently, we selected appropriate demonstration examples based on problem-solving logic and assessed their difficulty according to the number of problem-solving steps. In accordance with the principles of curriculum learning, we ordered the examples from easy to hard to serve as contextual prompts. Experimental results on multiple benchmarks indicate that our method outperforms previous ICL approaches in terms of performance and efficiency, effectively enhancing the complex reasoning capabilities of LLMs. Our project will be publicly available subsequently.
- Abstract(参考訳): In-context Learning (ICL) は、大規模言語モデル(LLM)の複雑な推論能力を著しく向上させる。
従来の手法は、例間の関連性を測定するための単純な機能に依存していた。
これらの特徴は実例間の本質的な関係を反映するのに十分ではないと我々は主張する。
本研究では,問題解決論理によって導かれるカリキュラムICL戦略を提案する。
問題解決ロジックを解析し、カリキュラム学習に基づいてそれらを注文することで、実演例を選択する。
具体的には、BREAKデータセットに基づく問題解決ロジック命令セットを構築し、サンプルの問題解決ロジックを分析するための言語モデルを微調整した。
その後,問題解決論理に基づいて適切な実演例を選択し,課題解決手順の数に応じてそれらの難易度を評価した。
カリキュラム学習の原則に従って,実例を文脈的プロンプトとして提供し易いものから難解なものまで注文した。
複数のベンチマークによる実験結果から,本手法は従来のICL手法よりも性能と効率が優れており,LLMの複雑な推論能力を効果的に向上することが示された。
私たちのプロジェクトはその後公開されます。
関連論文リスト
- Can Input Attributions Interpret the Inductive Reasoning Process in In-Context Learning? [19.268703560816498]
本稿では,言語学における一般化テストに触発された帰納的推論の総合的診断タスクを設計する。
問題は、従来の入力属性(IA)手法が、ICLにおいてそのような推論プロセスを追跡し、影響のある例を特定することができるかどうかである。
論文 参考訳(メタデータ) (2024-12-20T07:35:42Z) - Make LLMs better zero-shot reasoners: Structure-orientated autonomous reasoning [52.83539473110143]
本稿では,Large Language Models (LLM) の質問をよりよく理解するための構造指向分析手法を提案する。
複雑な質問応答タスクの信頼性をさらに向上するために,多エージェント推論システム,構造指向自律推論エージェント(SARA)を提案する。
大規模な実験により,提案システムの有効性が検証された。
論文 参考訳(メタデータ) (2024-10-18T05:30:33Z) - Reasoning Graph Enhanced Exemplars Retrieval for In-Context Learning [13.381974811214764]
RGER(Reasoning Graph-enhanced Exemplar Retrieval)
RGERはグラフカーネルを使用して、意味的および構造的類似性のある例を選択する。
私たちのコードはhttps://github.com/Yukang-Lin/RGER.comで公開されています。
論文 参考訳(メタデータ) (2024-09-17T12:58:29Z) - DeTriever: Decoder-representation-based Retriever for Improving NL2SQL In-Context Learning [19.93800175353809]
DeTrieverは、隠れた状態の重み付けを学習する新しいデモ検索フレームワークである。
提案手法は1ショットNL2タスクにおける最先端のベースラインを大幅に上回る。
論文 参考訳(メタデータ) (2024-06-12T06:33:54Z) - ParaICL: Towards Robust Parallel In-Context Learning [74.38022919598443]
大規模言語モデル(LLM)が自然言語処理の標準となっている。
インコンテキスト・ラーニング(ICL)は、いくつかの実演例の選択に依存している。
パラレルインコンテキスト学習(ParaICL)という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-31T05:56:15Z) - Interactive-KBQA: Multi-Turn Interactions for Knowledge Base Question Answering with Large Language Models [7.399563588835834]
Interactive-KBQAは知識ベース(KB)との直接インタラクションを通じて論理形式を生成するように設計されたフレームワークである
提案手法は,WebQuestionsSP, ComplexWebQuestions, KQA Pro, MetaQAデータセット上での競合結果を実現する。
論文 参考訳(メタデータ) (2024-02-23T06:32:18Z) - LogicAsker: Evaluating and Improving the Logical Reasoning Ability of Large Language Models [63.14196038655506]
大規模言語モデル(LLM)の論理的推論能力を評価・拡張するための新しいアプローチであるLogicAskerを紹介する。
提案手法は, LLMが論理規則を学習する際の大きなギャップを明らかにし, 異なるモデル間で29%から90%の推論失敗を識別する。
GPT-4oのようなモデルにおける論理的推論を最大5%向上させることで、これらの知見を活用して、ターゲットとなる実演例と微調整データを構築した。
論文 参考訳(メタデータ) (2024-01-01T13:53:53Z) - An In-Context Schema Understanding Method for Knowledge Base Question
Answering [70.87993081445127]
大きな言語モデル(LLM)は、言語理解において強力な能力を示しており、この課題を解決するために使用することができる。
既存のメソッドは、当初、スキーマ固有の詳細を使わずにLLMを使用してロジックフォームのドラフトを生成することで、この課題を回避している。
そこで本研究では,LLMが文脈内学習を利用してスキーマを直接理解できる簡易なインコンテキスト理解(ICSU)手法を提案する。
論文 参考訳(メタデータ) (2023-10-22T04:19:17Z) - RetICL: Sequential Retrieval of In-Context Examples with Reinforcement Learning [53.52699766206808]
In-Context Learning (RetICL) のための検索式を提案する。
RetICLは数学用語の問題解決と科学的質問応答のタスクに基づいて評価し,一貫した性能や一致,学習可能なベースラインを示す。
論文 参考訳(メタデータ) (2023-05-23T20:15:56Z) - Active Learning Principles for In-Context Learning with Large Language
Models [65.09970281795769]
本稿では,アクティブ・ラーニング・アルゴリズムが,文脈内学習における効果的な実演選択手法としてどのように機能するかを検討する。
ALによる文脈内サンプル選択は,不確実性の低い高品質な事例を優先し,試験例と類似性を有することを示す。
論文 参考訳(メタデータ) (2023-05-23T17:16:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。