論文の概要: ReIn: Conversational Error Recovery with Reasoning Inception
- arxiv url: http://arxiv.org/abs/2602.17022v1
- Date: Thu, 19 Feb 2026 02:37:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.605568
- Title: ReIn: Conversational Error Recovery with Reasoning Inception
- Title(参考訳): ReIn: 推論開始による会話エラー回復
- Authors: Takyoung Kim, Jinseok Nam, Chandrayee Basu, Xing Fan, Chengyuan Ma, Heng Ji, Gokhan Tur, Dilek Hakkani-Tür,
- Abstract要約: 本研究は,誤対話コンテキストの正確な診断と適切な回復計画の実行を必要とする誤り回復に焦点を当てる。
エージェントの意思決定プロセスに初期推論を組み込むテスト時間介入手法であるReasoning Inception (ReIn)を提案する。
ユーザ目標の達成を阻害する会話障害シナリオをシステマティックにシミュレートすることでReInを評価する。
- 参考スコア(独自算出の注目度): 43.5498321001366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational agents powered by large language models (LLMs) with tool integration achieve strong performance on fixed task-oriented dialogue datasets but remain vulnerable to unanticipated, user-induced errors. Rather than focusing on error prevention, this work focuses on error recovery, which necessitates the accurate diagnosis of erroneous dialogue contexts and execution of proper recovery plans. Under realistic constraints precluding model fine-tuning or prompt modification due to significant cost and time requirements, we explore whether agents can recover from contextually flawed interactions and how their behavior can be adapted without altering model parameters and prompts. To this end, we propose Reasoning Inception (ReIn), a test-time intervention method that plants an initial reasoning into the agent's decision-making process. Specifically, an external inception module identifies predefined errors within the dialogue context and generates recovery plans, which are subsequently integrated into the agent's internal reasoning process to guide corrective actions, without modifying its parameters or system prompts. We evaluate ReIn by systematically simulating conversational failure scenarios that directly hinder successful completion of user goals: user's ambiguous and unsupported requests. Across diverse combinations of agent models and inception modules, ReIn substantially improves task success and generalizes to unseen error types. Moreover, it consistently outperforms explicit prompt-modification approaches, underscoring its utility as an efficient, on-the-fly method. In-depth analysis of its operational mechanism, particularly in relation to instruction hierarchy, indicates that jointly defining recovery tools with ReIn can serve as a safe and effective strategy for improving the resilience of conversational agents without modifying the backbone models or system prompts.
- Abstract(参考訳): ツール統合を備えた大規模言語モデル(LLM)を利用した会話エージェントは、固定されたタスク指向の対話データセット上で強力なパフォーマンスを達成するが、予期しないユーザによるエラーに対して脆弱なままである。
本研究は,誤対話コンテキストの正確な診断と適切な回復計画の実行を必要とするエラー回復に焦点を当てる。
モデル微調整や大幅なコストと時間的要求による迅速な修正を前提とした現実的な制約の下で、エージェントが文脈的に欠陥のある相互作用から回復できるかどうか、モデルパラメータやプロンプトを変更することなくそれらの振る舞いをどのように適応できるかを検討する。
この目的のために,エージェントの意思決定プロセスに初期推論を組み込むテスト時間介入手法であるReasoning Inception (ReIn)を提案する。
具体的には、外部インセプションモジュールは、対話コンテキスト内で事前に定義されたエラーを特定し、リカバリ計画を生成し、その後エージェントの内部推論プロセスに統合され、パラメータやシステムプロンプトを変更することなく、修正アクションを誘導する。
ユーザ目標の達成を阻害する会話障害シナリオをシステマティックにシミュレートし,ReInを評価する。
ReInはエージェントモデルとインセプションモジュールの多様な組み合わせで、タスクの成功を大幅に改善し、目に見えないエラータイプに一般化する。
さらに、明示的な迅速な修正アプローチを一貫して上回り、効率のよいオンザフライ手法としての有用性を強調している。
ReInと共同でリカバリツールを定義することは、バックボーンモデルやシステムプロンプトを変更することなく、会話エージェントのレジリエンスを改善するための安全かつ効果的な戦略となる。
関連論文リスト
- The Why Behind the Action: Unveiling Internal Drivers via Agentic Attribution [63.61358761489141]
LLM(Large Language Model)ベースのエージェントは、カスタマーサービス、Webナビゲーション、ソフトウェアエンジニアリングといった現実世界のアプリケーションで広く使われている。
本稿では,タスク結果に関係なく,エージェントの動作を駆動する内部要因を識別する,テキスト汎用エージェント属性のための新しいフレームワークを提案する。
標準ツールの使用やメモリ誘起バイアスのような微妙な信頼性リスクなど、さまざまなエージェントシナリオでフレームワークを検証する。
論文 参考訳(メタデータ) (2026-01-21T15:22:21Z) - Metacognitive Self-Correction for Multi-Agent System via Prototype-Guided Next-Execution Reconstruction [58.51530390018909]
大規模言語モデルに基づくマルチエージェントシステムは、協調的な問題解決において優れているが、エラーのカスケードには脆弱である。
我々は,MASにリアルタイム,教師なし,ステップレベルの誤り検出と自己補正を付与するメタ認知フレームワークMASCを提案する。
論文 参考訳(メタデータ) (2025-10-16T05:35:37Z) - Agent-R: Training Language Model Agents to Reflect via Iterative Self-Training [18.896813839389893]
本稿では,言語エージェントをオンザフライでリフレクション可能な反復型自己学習フレームワーク,Agent-Rを提案する。
Agent-Rは、正しさに基づいてアクションを報酬または罰揚する従来の方法とは異なり、MCTSを活用して、誤ったトラジェクトリから正しいトラジェクトリを復元するトレーニングデータを構築する。
以上の結果から,Agent-Rは連続的にエラーから回復し,タイムリーなエラー訂正を可能にすることが示唆された。
論文 参考訳(メタデータ) (2025-01-20T11:46:04Z) - Repairs in a Block World: A New Benchmark for Handling User Corrections with Multi-Modal Language Models [48.42142115255159]
命令追従操作タスクにおけるマルチモーダルなTPRシーケンスのデータセットであるBlockWorld-Repairsをリリースする。
現状のビジョンと言語モデル(VLM)を複数の設定で評価し,TPRの処理能力と正確な応答性に着目した。
以上の結果から,これらのモデルはまだマルチモーダル・コラボレーティブ・セッティングにデプロイする準備が整っていないことが示唆された。
論文 参考訳(メタデータ) (2024-09-21T21:06:25Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Using Textual Interface to Align External Knowledge for End-to-End
Task-Oriented Dialogue Systems [53.38517204698343]
本稿では,外部知識の整合化と冗長なプロセスの排除にテキストインタフェースを用いた新しいパラダイムを提案する。
我々は、MultiWOZ-Remakeを用いて、MultiWOZデータベース用に構築されたインタラクティブテキストインタフェースを含む、我々のパラダイムを実演する。
論文 参考訳(メタデータ) (2023-05-23T05:48:21Z) - CAPE: Corrective Actions from Precondition Errors using Large Language
Models [8.547766794082184]
本研究では,計画中の条件誤差を解決するための修正行動を提案する新しい手法を提案する。
CAPEは、アクション前提条件からの少数ショット推論を活用することにより、生成されたプランの品質を改善する。
そこでCAPEはSayCanに比べて76.49%の精度でタスク計画の正しさを向上する。
論文 参考訳(メタデータ) (2022-11-17T23:14:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。