論文の概要: Latent Skill Discovery for Chain-of-Thought Reasoning
- arxiv url: http://arxiv.org/abs/2312.04684v1
- Date: Thu, 7 Dec 2023 20:36:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 17:10:27.256531
- Title: Latent Skill Discovery for Chain-of-Thought Reasoning
- Title(参考訳): 思考連鎖推論のための潜在スキル発見
- Authors: Zifan Xu, Haozhu Wang, Dmitriy Bespalov, Peter Stone, Yanjun Qi
- Abstract要約: 本稿では、教師なし学習を用いて有理数の潜在空間表現を生成するReasoning Skill Discovery (RSD)を紹介する。
これにより、必要な推論スキルを示すサンプルの選択をガイドすることができる。
経験的に、RSDは複数の推論タスクで解答精度を最大6%向上させる。
- 参考スコア(独自算出の注目度): 44.30408985857306
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advances in Large Language Models (LLMs) have led to an emergent
ability of chain-of-thought (CoT) prompting, a prompt reasoning strategy that
adds intermediate rationale steps between questions and answers to construct
prompts. Conditioned on these prompts, LLMs can effectively learn in context to
generate rationales that lead to more accurate answers than when answering the
same question directly. To design LLM prompts, one important setting, called
demonstration selection, considers selecting demonstrations from an example
bank. Existing methods use various heuristics for this selection, but for CoT
prompting, which involves unique rationales, it is essential to base the
selection upon the intrinsic skills that CoT rationales need, for instance, the
skills of addition or subtraction for math word problems.
To address this requirement, we introduce a novel approach named Reasoning
Skill Discovery (RSD) that use unsupervised learning to create a latent space
representation of rationales, called a reasoning skill. Simultaneously, RSD
learns a reasoning policy to determine the required reasoning skill for a given
question. This can then guide the selection of examples that demonstrate the
required reasoning skills. Our approach offers several desirable properties: it
is (1) theoretically grounded, (2) sample-efficient, requiring no LLM inference
or manual prompt design, and (3) LLM-agnostic. Empirically, RSD outperforms
existing methods by up to 6% in terms of the answer accuracy across multiple
reasoning tasks.
- Abstract(参考訳): 近年のLarge Language Models (LLMs) の進歩は、質問と回答の間の中間的合理的なステップを追加し、プロンプトを構成するために、チェーン・オブ・シークレット(CoT)プロンプトの創発的な能力をもたらす。
これらのプロンプトを条件に、LLMは文脈で効果的に学習し、同じ質問に直接答える時よりもより正確な答えをもたらす有理性を生成する。
LLMプロンプトを設計するには、デモ選択と呼ばれる重要な設定が、サンプルバンクからデモを選択することを検討する。
既存の手法はこの選択に様々なヒューリスティックスを用いるが、CoTのプロンプトには独自の理性を含むため、CoTの理性が必要とする本質的なスキル、例えば算術語問題の追加や減算のスキルに基づいて選択を行うことが不可欠である。
この要件に対処するために、教師なし学習を用いて、推論スキルと呼ばれる有理数の潜在空間表現を作成する、Reasoning Skill Discovery (RSD) という新しいアプローチを導入する。
同時に、RSDは、ある質問に必要な推論スキルを決定するための推論ポリシーを学ぶ。
これにより、必要な推論スキルを示すサンプルの選択をガイドすることができる。
提案手法は,(1)理論的基盤化,(2)サンプル効率,LSM推論や手動プロンプト設計の不要,(3)LSM非依存など,いくつかの望ましい特性を提供する。
経験的に、rsdは複数の推論タスクにわたる答えの正確さの点で、既存のメソッドを最大6%上回っている。
関連論文リスト
- MIR-Bench: Benchmarking LLM's Long-Context Intelligence via Many-Shot In-Context Inductive Reasoning [21.056519816264505]
我々は,最初のマルチショットインコンテキスト帰納的推論ベンチマークであるMIR-Benchを提案する。
帰納的推論と多発性ICLに関する多くの新しい問題について検討し, 誤写に対する頑健さについて検討した。
論文 参考訳(メタデータ) (2025-02-14T06:05:12Z) - Make LLMs better zero-shot reasoners: Structure-orientated autonomous reasoning [52.83539473110143]
本稿では,Large Language Models (LLM) の質問をよりよく理解するための構造指向分析手法を提案する。
複雑な質問応答タスクの信頼性をさらに向上するために,多エージェント推論システム,構造指向自律推論エージェント(SARA)を提案する。
大規模な実験により,提案システムの有効性が検証された。
論文 参考訳(メタデータ) (2024-10-18T05:30:33Z) - Combinatorial Reasoning: Selecting Reasons in Generative AI Pipelines via Combinatorial Optimization [2.090904951468026]
大きな言語モデル(LLM)は、人間の知性を必要とするタスクにおいて印象的な能力を示す。
しかし、LLMの推論能力は重要な議論の的となっている。
本稿では,完全自動プロンプト方式である Combinatorial Reasoning (CR) について紹介する。
論文 参考訳(メタデータ) (2024-06-19T16:47:44Z) - Aggregation of Reasoning: A Hierarchical Framework for Enhancing Answer Selection in Large Language Models [84.15513004135576]
最近の研究は、複数の推論チェーンをサンプリングし、応答周波数に基づいてアンサンブルすることで、Large Language Models(LLMs)の推論性能を向上させる。
このアプローチは、正しい答えが少数派である場合に失敗する。
階層的推論集約フレームワークAoRを導入し、推論連鎖の評価に基づいて回答を選択する。
論文 参考訳(メタデータ) (2024-05-21T17:12:19Z) - Large Language Models as an Indirect Reasoner: Contrapositive and Contradiction for Automated Reasoning [74.90592233107712]
本稿では,直接推論 (DR) と間接推論 (IR) を並列な複数の推論経路として考慮し,最終解を導出する直接間接推論 (DIR) 手法を提案する。
我々のDIR法は単純だが有効であり、既存のCoT法と簡単に統合できる。
論文 参考訳(メタデータ) (2024-02-06T03:41:12Z) - DetermLR: Augmenting LLM-based Logical Reasoning from Indeterminacy to Determinacy [76.58614128865652]
非決定性から決定性への進化として推論過程を再考する新しい視点であるDetermLRを提案する。
まず、既知の条件を次の2つのタイプに分類する: 決定的および不決定的前提 これは、推論プロセスのオール方向を提供し、不決定的データを段階的決定的洞察に変換する際のLCMを導く。
我々は、利用可能な施設の保存と抽出、推論メモリによる推論パスの自動化、そしてその後の推論ステップに関する歴史的推論の詳細を保存する。
論文 参考訳(メタデータ) (2023-10-28T10:05:51Z) - Concise and Organized Perception Facilitates Reasoning in Large Language Models [32.71672086718057]
大規模言語モデル (LLM) は, 推論作業における乱雑な内容や無関係な内容を扱う際に, 人間の認知バイアスに類似した障害パターンを示す。
コンシス・アンド・オーガナイズド・パーセプション(COP)という新しい推論手法を提案する。
COPは与えられたステートメントを慎重に分析し、冗長性を効率的に排除しながら、最も関連する情報を識別する。
論文 参考訳(メタデータ) (2023-10-05T04:47:49Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。