論文の概要: Structure Enables Effective Self-Localization of Errors in LLMs
- arxiv url: http://arxiv.org/abs/2602.02416v1
- Date: Mon, 02 Feb 2026 18:15:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.352202
- Title: Structure Enables Effective Self-Localization of Errors in LLMs
- Title(参考訳): LLMにおけるエラーの効率的な自己ローカライズを可能にする構造
- Authors: Ankur Samanta, Akshayaa Magesh, Ayush Jain, Kavosh Asadi, Youliang Yu, Daniel Jiang, Boris Vidolov, Kaveh Hassani, Paul Sajda, Jalaj Bhandari, Yonathan Efroni,
- Abstract要約: 本稿では,個別的,意味論的に一貫性のある思考ステップとして推論を構造化するプロンプト手法を提案する。
モデルでは、従来の非構造的連鎖推論では失敗しながら、この構造内でエラーを確実にローカライズできることが示される。
- 参考スコア(独自算出の注目度): 19.349181130372155
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-correction in language models remains elusive. In this work, we explore whether language models can explicitly localize errors in incorrect reasoning, as a path toward building AI systems that can effectively correct themselves. We introduce a prompting method that structures reasoning as discrete, semantically coherent thought steps, and show that models are able to reliably localize errors within this structure, while failing to do so in conventional, unstructured chain-of-thought reasoning. Motivated by how the human brain monitors errors at discrete decision points and resamples alternatives, we introduce Iterative Correction Sampling of Thoughts (Thought-ICS), a self-correction framework. Thought-ICS iteratively prompts the model to generate reasoning one discrete and complete thought at a time--where each thought represents a deliberate decision by the model--creating natural boundaries for precise error localization. Upon verification, the model localizes the first erroneous step, and the system backtracks to generate alternative reasoning from the last correct point. When asked to correct reasoning verified as incorrect by an oracle, Thought-ICS achieves 20-40% self-correction lift. In a completely autonomous setting without external verification, it outperforms contemporary self-correction baselines.
- Abstract(参考訳): 言語モデルにおける自己補正はいまだ解明されていない。
本研究では,言語モデルが誤り推論においてエラーを明示的にローカライズできるかどうかを,自らを効果的に修正できるAIシステムを構築するための道筋として検討する。
本稿では,従来の非構造的チェーン・オブ・シークレット推論では不可能でありながら,モデルがこの構造内でエラーを確実に局所化できることを示す。
人間の脳が個々の意思決定ポイントでエラーを監視し、代替案を再サンプリングする方法に触発され、自己補正フレームワークであるIterative Correction Sampling of Thoughts (Thought-ICS)を導入する。
Thought-ICS はモデルを反復的に、各思考がモデルによる意図的な決定を表現し、正確なエラーローカライゼーションのための自然な境界を作成するという、離散的で完全な思考を1つの時間で推論するように促す。
検証されると、モデルは最初の誤ったステップをローカライズし、システムは最後の正しいポイントから別の推論を生成する。
宣誓供述書が誤認した推論を正すよう依頼すると、Thought-ICSは20~40%の自己補正リフトを達成する。
外部認証なしで完全に自律的な環境では、現代の自己補正ベースラインよりも優れています。
関連論文リスト
- Counterfactual Self-Questioning for Stable Policy Optimization in Language Models [0.0]
本稿では,一つの言語モデルが自己推論の反現実的批判を生成・評価するフレームワークである反現実的自問法を提案する。
複数の数学的推論ベンチマークの実験は、特により小さなモデルにおいて、反実的な自己探究によって精度と訓練安定性が向上することを示している。
論文 参考訳(メタデータ) (2025-12-31T09:10:37Z) - Incorporating Self-Rewriting into Large Language Model Reasoning Reinforcement [54.63337314382886]
自己書き起こしフレームワークを導入し、モデルが独自の推論テキストを書き直し、その後、書き直し推論から学習し、内部思考プロセスの品質を向上させる。
アルゴリズム設計において、モデルの一貫した正当性によって定義される「単純な」サンプルのみを書き換える選択的な書き換え手法を提案する。
モデルサイズが異なる多様なタスクの実験は、自己書き換えの有効性を検証する。
論文 参考訳(メタデータ) (2025-11-20T13:10:52Z) - ReForm: Reflective Autoformalization with Prospective Bounded Sequence Optimization [73.0780809974414]
本稿では,意味的整合性評価を自己形式化プロセスに統合する反射的自己形式化手法を提案する。
これにより、モデルが形式的なステートメントを反復的に生成し、セマンティックな忠実さを評価し、自己修正された特定エラーを発生させることができる。
実験の結果、ReFormは最強のベースラインに対して平均22.6ポイントの改善を達成した。
論文 参考訳(メタデータ) (2025-10-28T16:22:54Z) - Language Models can perform Single-Utterance Self-Correction of Perturbed Reasoning [4.768151813962547]
大規模言語モデル(LLM)は、驚くべき数学的推論能力を示している。
それらの性能は、問題記述と迅速な戦略の微妙なバリエーションに引き続き脆弱である。
近年のモデルの自己補正能力をよりよく理解するために,モデルが自己補正合成を行う能力を測定する実験を行った。
論文 参考訳(メタデータ) (2025-06-18T21:35:44Z) - Self-rewarding correction for mathematical reasoning [19.480508580498103]
我々は,大規模言語モデル(LLM)の自己回帰的推論について研究する。
LLMは、ステップバイステップの推論を同時に生成し、外部からのフィードバックを伴わない推論時間における出力の正しさを評価する。
本稿では,自己生成データのみを用いて自己回帰推論モデルを構築するための2段階のアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-26T23:01:16Z) - Small Language Models Need Strong Verifiers to Self-Correct Reasoning [69.94251699982388]
大規模言語モデル(LLM)の推論性能を高めるための有望なソリューションとして自己補正が登場した。
この研究は、小さい(=13B)言語モデル(LM)が、より強いLMから最小の入力で推論タスクを自己補正できるかどうかを考察する。
論文 参考訳(メタデータ) (2024-04-26T03:41:28Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。