論文の概要: Asking the Right Questions: Improving Reasoning with Generated Stepping Stones
- arxiv url: http://arxiv.org/abs/2602.19069v1
- Date: Sun, 22 Feb 2026 06:54:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.469564
- Title: Asking the Right Questions: Improving Reasoning with Generated Stepping Stones
- Title(参考訳): 正しい質問: 生成したステッピングストーンによる推論の改善
- Authors: Hengyuan Hu, Tingchen Fu, Minqi Jiang, Alexander H Miller, Yoram Bachrach, Jakob Nicolaus Foerster,
- Abstract要約: 本研究では,ARQ を用いた近代的推論 LLM の文脈における足場石の特性と有用性について検討する。
まず、良いステップストーンの質問が存在し、転送可能であることを示します。
次に,SFT と RL によりより有用なステップストーンを合成データで生成できることを示す。
- 参考スコア(独自算出の注目度): 71.89279249618038
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have witnessed tremendous progress in enabling LLMs to solve complex reasoning tasks such as math and coding. As we start to apply LLMs to harder tasks that they may not be able to solve in one shot, it is worth paying attention to their ability to construct intermediate stepping stones that prepare them to better solve the tasks. Examples of stepping stones include simplifications, alternative framings, or subproblems. We study properties and benefits of stepping stones in the context of modern reasoning LLMs via ARQ (\textbf{A}king the \textbf{R}ight \textbf{Q}uestions), our simple framework which introduces a question generator to the default reasoning pipeline. We first show that good stepping stone questions exist and are transferrable, meaning that good questions can be generated, and they substantially help LLMs of various capabilities in solving the target tasks. We next frame stepping stone generation as a post-training task and show that we can fine-tune LLMs to generate more useful stepping stones by SFT and RL on synthetic data.
- Abstract(参考訳): 近年、LLMが数学やコーディングといった複雑な推論タスクを解けるようになった。
LLMを1ショットで解決できない難しいタスクに適用し始めると、そのタスクをよりよく解決するための中間ステップストーンを構築する能力に注意を払う価値がある。
ステップストーンの例としては、単純化、代替フレーミング、サブプロブレムなどがある。
既定の推論パイプラインに質問発生器を導入する単純なフレームワークであるARQ(\textbf{A}king the \textbf{R}ight \textbf{Q}uestions)を用いて、現代の推論LPMの文脈におけるステップ石の特性と利点について検討する。
まず, 優れたステップストーン問題が存在すること, トランスファー可能であること, つまり, よい質問が生成可能であること, そして, ターゲットタスクを解く上で, 様々な能力を持つLLMを効果的に支援できること, を示す。
次に,SFT と RL によりより有用なステップストーンを合成データで生成できることを示す。
関連論文リスト
- Critical Questions Generation: Motivation and Challenges [6.0158981171030685]
本稿では,議論文を処理し,それによる批判的な質問を生成する新しいタスクを提案する。
議論理論において、CQは、欠落している可能性のある情報を指差して、議論の盲点を埋めるように設計されたツールである。
LLMを用いたCQs生成の研究には,大規模な実験のための参照データセットが必要である。
論文 参考訳(メタデータ) (2024-10-18T09:46:38Z) - Seek and Solve Reasoning for Table Question Answering [49.006950918895306]
本稿では,タスク単純化時の推論プロセスが,タスク自体の単純化よりも有用であることを示す。
本稿では,LLMにまず関連情報を求め,質問に答えるように指示するSeek-and-solving Pipelineを提案する。
本稿では, SS-CoT経路を用いた実演を用いて, 複雑なTQA課題の解決にLLMを誘導する単一ステップTQA解決プロンプトをこのパイプラインから蒸留する。
論文 参考訳(メタデータ) (2024-09-09T02:41:00Z) - Investigating Answerability of LLMs for Long-Form Question Answering [35.41413072729483]
実用的で影響力のある応用がいくつかあるので、長文質問応答(LFQA)に焦点を当てる。
本稿では,要約の要約から質問生成手法を提案し,長い文書の要約からフォローアップ質問を生成することで,困難な設定を実現できることを示す。
論文 参考訳(メタデータ) (2023-09-15T07:22:56Z) - LaGR-SEQ: Language-Guided Reinforcement Learning with Sample-Efficient
Querying [71.86163159193327]
大規模言語モデル(LLM)は、最近、テキストを介してコンテキスト対応の応答を提供するという、印象的な能力を実証した。
この能力は、パターン補完に関連するシーケンシャルな意思決定タスクにおいて、妥当なソリューションを予測するために使われる可能性がある。
第一強化学習(RL)エージェントによって部分的に完了したタスクに対する解を提案するために,LLMのこの予測能力を利用するLaGRを紹介した。
論文 参考訳(メタデータ) (2023-08-21T02:07:35Z) - Decomposed Prompting: A Modular Approach for Solving Complex Tasks [55.42850359286304]
本稿では,より単純なサブタスクに分解することで,複雑なタスクを解くための分解プロンプトを提案する。
このモジュール構造は、各プロンプトを特定のサブタスクに最適化することを可能にする。
Decomposed Promptingの柔軟性とモジュラリティは、数発のプロンプトで先行作業より優れていることを示す。
論文 参考訳(メタデータ) (2022-10-05T17:28:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。