論文の概要: Diverge to Induce Prompting: Multi-Rationale Induction for Zero-Shot Reasoning
- arxiv url: http://arxiv.org/abs/2602.08028v1
- Date: Sun, 08 Feb 2026 16:02:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.938491
- Title: Diverge to Induce Prompting: Multi-Rationale Induction for Zero-Shot Reasoning
- Title(参考訳): 発散を誘発する多様性:ゼロショット推論のためのマルチライタリー誘導
- Authors: Po-Chun Chen, Hen-Hsen Huang, Hsin-Hsi Chen,
- Abstract要約: Diverge-to-Induce Prompting (DIP) は、まず大きな言語モデルに質問毎に複数の高いレベルの論理を生成するよう促すフレームワークである。
それぞれの根拠は、詳細かつステップバイステップのドラフトプランに詳述され、最後に、これらのドラフトプランは最終計画に誘導されます。
実験により,DIPは単一ストラテジー・プロンプトよりも優れており,プロンプトに基づく推論におけるマルチプラン・インジェクションの有効性が示された。
- 参考スコア(独自算出の注目度): 23.56553381765231
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To address the instability of unguided reasoning paths in standard Chain-of-Thought prompting, recent methods guide large language models (LLMs) by first eliciting a single reasoning strategy. However, relying on just one strategy for each question can still limit performance across diverse tasks. We propose Diverge-to-Induce Prompting (DIP), a framework that first prompts an LLM to generate multiple diverse high-level rationales for each question. Each rationale is then elaborated into a detailed, step-by-step draft plan. Finally, these draft plans are induced into a final plan. DIP enhances zero-shot reasoning accuracy without reliance on resource-intensive sampling. Experiments show that DIP outperforms single-strategy prompting, demonstrating the effectiveness of multi-plan induction for prompt-based reasoning.
- Abstract(参考訳): 標準Chain-of-Thoughtプロンプトにおける未案内推論パスの不安定性に対処するため,最近の手法では,単一推論戦略を最初に導入することにより,大規模言語モデル (LLM) を導出する。
しかし、各質問に対する1つの戦略に頼れば、さまざまなタスクのパフォーマンスを制限できる。
本稿では,まず LLM に質問毎に多種多様な高次理性を生成するためのフレームワークである Diverge-to-Induce Prompting (DIP) を提案する。
それぞれの根拠は、詳細でステップバイステップのドラフトプランに詳細化されます。
最終的に、これらの草案は最終的な計画へと導かれる。
DIPは資源集中サンプリングに頼ることなくゼロショット推論精度を向上させる。
実験により,DIPは単一ストラテジー・プロンプトよりも優れており,プロンプトに基づく推論におけるマルチプラン・インジェクションの有効性が示された。
関連論文リスト
- More Bias, Less Bias: BiasPrompting for Enhanced Multiple-Choice Question Answering [53.09478307383865]
大規模言語モデル(LLM)のための新しい推論フレームワークであるBiasPromptingを紹介する。
最終的な予測に到達する前に、LCMにすべての妥当な答えオプションの推論を生成し、批判的に評価するように誘導する。
広く使われている5つの質問応答ベンチマークにおいて、大幅な改善が示されている。
論文 参考訳(メタデータ) (2025-11-25T09:01:08Z) - Directional Reasoning Injection for Fine-Tuning MLLMs [51.53222423215055]
マルチモーダルな大言語モデル(MLLM)は急速に進歩しているが、その推論能力は強いテキストのみのモデルよりも遅れていることが多い。
このギャップを埋める既存の方法は、大規模マルチモーダル推論データや強化学習の監督された微調整に依存している。
この問題を解決するために,DRIFT(Directional Reasoning Injection for Fine-Tuning)を提案する。
論文 参考訳(メタデータ) (2025-10-16T18:06:46Z) - Enhancing Long Chain-of-Thought Reasoning through Multi-Path Plan Aggregation [32.86351316550696]
我々は、生の長いCoTを分析し、計画と実行ステップからなる推論階層を明らかにする。
本研究の目的は,計画探索と集約による単一パス推論を増強するMPPA(Multi-Path Plan Aggregation)を提案することである。
これを解決するために, Twisted Sequential Monte Carlo (TSMC) を利用するプロセスレベルの優先度最適化スキームであるStep-DPOを導入する。
論文 参考訳(メタデータ) (2025-10-13T17:02:41Z) - PixelThink: Towards Efficient Chain-of-Pixel Reasoning [70.32510083790069]
PixelThinkは、外部から推定されるタスクの難しさと内部で測定されたモデルの不確実性を統合する、シンプルで効果的なスキームである。
シーンの複雑さと予測信頼度に応じて推論の長さを圧縮することを学ぶ。
実験により,提案手法は推論効率と全体セグメンテーション性能の両方を改善した。
論文 参考訳(メタデータ) (2025-05-29T17:55:49Z) - "Well, Keep Thinking": Enhancing LLM Reasoning with Adaptive Injection Decoding [4.008780119020479]
大規模言語モデル(LLM)は強力な推論能力を示しており、多くの場合、ほとんどショットやゼロショットの連鎖(CoT)のプロンプトによるものである。
本稿では,LLMを体系的に推論を継続し,未熟な推論を防止できる新しい復号法を提案する。
論文 参考訳(メタデータ) (2025-03-13T08:46:32Z) - Stepwise Informativeness Search for Efficient and Effective LLM Reasoning [49.85349030928302]
最近の研究によると、Large Language Models (LLM) は長いコンテキストの途中で焦点を失う傾向にある。
より正確かつ簡潔なステップ・バイ・ステップの合理性を生成するために, LLM を導くことを提案する。
論文 参考訳(メタデータ) (2025-02-21T09:39:27Z) - Aggregation of Reasoning: A Hierarchical Framework for Enhancing Answer Selection in Large Language Models [84.15513004135576]
最近の研究は、複数の推論チェーンをサンプリングし、応答周波数に基づいてアンサンブルすることで、Large Language Models(LLMs)の推論性能を向上させる。
このアプローチは、正しい答えが少数派である場合に失敗する。
階層的推論集約フレームワークAoRを導入し、推論連鎖の評価に基づいて回答を選択する。
論文 参考訳(メタデータ) (2024-05-21T17:12:19Z) - LaRS: Latent Reasoning Skills for Chain-of-Thought Reasoning [61.7853049843921]
Chain-of-Thoughting(CoT)プロンプトは、大規模言語モデル(LLM)のための一般的なコンテキスト内学習手法である。
本稿では、教師なし学習を用いて有理数の潜在空間表現を生成するLaRS(Lalatnt Reasoning Skills)という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-07T20:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。