論文の概要: Adaptive Multi-Agent Response Refinement in Conversational Systems
- arxiv url: http://arxiv.org/abs/2511.08319v1
- Date: Wed, 12 Nov 2025 01:52:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.759466
- Title: Adaptive Multi-Agent Response Refinement in Conversational Systems
- Title(参考訳): 会話システムにおける適応型マルチエージェント応答リファインメント
- Authors: Soyeong Jeong, Aparna Elangovan, Emine Yilmaz, Oleg Rokhlenko,
- Abstract要約: 大規模言語モデル (LLM) は人間のような応答を生成することで会話システムにおいて顕著な成功を収めた。
特にパーソナライズや特定の知識を考慮に入れる必要がある場合、それらは不足する可能性がある。
本稿では,各エージェントが各アスペクトに対して特定の役割を割り当てられるマルチエージェントフレームワークによる応答の精細化を提案する。
- 参考スコア(独自算出の注目度): 33.2240994465021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable success in conversational systems by generating human-like responses. However, they can fall short, especially when required to account for personalization or specific knowledge. In real-life settings, it is impractical to rely on users to detect these errors and request a new response. One way to address this problem is to refine the response before returning it to the user. While existing approaches focus on refining responses within a single LLM, this method struggles to consider diverse aspects needed for effective conversations. In this work, we propose refining responses through a multi-agent framework, where each agent is assigned a specific role for each aspect. We focus on three key aspects crucial to conversational quality: factuality, personalization, and coherence. Each agent is responsible for reviewing and refining one of these aspects, and their feedback is then merged to improve the overall response. To enhance collaboration among them, we introduce a dynamic communication strategy. Instead of following a fixed sequence of agents, our approach adaptively selects and coordinates the most relevant agents based on the specific requirements of each query. We validate our framework on challenging conversational datasets, demonstrating that ours significantly outperforms relevant baselines, particularly in tasks involving knowledge or user's persona, or both.
- Abstract(参考訳): 大規模言語モデル (LLM) は人間のような応答を生成することで会話システムにおいて顕著な成功を収めた。
しかし、特にパーソナライズや特定の知識を考慮に入れる必要がある場合、それらは不足する可能性がある。
実際の環境では、これらのエラーを検出して新しいレスポンスを要求するために、ユーザに頼るのは現実的ではありません。
この問題に対処するひとつの方法は、ユーザに返す前に応答を洗練することだ。
既存のアプローチは単一のLLM内での応答の精細化に重点を置いているが、この手法は効果的な会話に必要な様々な側面を考慮するのに苦労している。
本研究では,各エージェントが各アスペクトに対して特定の役割を割り当てられるマルチエージェントフレームワークによる応答の精細化を提案する。
会話の質に不可欠な3つの重要な側面、すなわち事実性、パーソナライゼーション、一貫性に注目します。
各エージェントはこれらの側面の1つをレビューし、精査する責任を負い、そのフィードバックをマージして全体的な応答を改善する。
協調性を高めるために,動的なコミュニケーション戦略を導入する。
エージェントの固定シーケンスに従う代わりに、各クエリの特定の要求に基づいて、最も関連性の高いエージェントを適応的に選択・調整する。
会話データセットに挑戦する上でのフレームワークを検証することで、特に知識やユーザのペルソナ、あるいはその両方に関わるタスクにおいて、私たちのフレームワークが関連するベースラインを大幅に上回ることを示す。
関連論文リスト
- IRLab@iKAT24: Learned Sparse Retrieval with Multi-aspect LLM Query Generation for Conversational Search [6.974395116689502]
iKAT 2024は、対話アシスタントの進化に焦点を当て、対話と応答をパーソナライズされたユーザー知識から適応することができる。
このトラックには、Personal Textual Knowledge Base(PTKB)と会話型AIタスク(通訳ランキングや応答生成など)が組み込まれている。
論文 参考訳(メタデータ) (2024-11-22T05:18:35Z) - ReSpAct: Harmonizing Reasoning, Speaking, and Acting Towards Building Large Language Model-Based Conversational AI Agents [11.118991548784459]
大規模言語モデル(LLM)ベースのエージェントは、ますます外部環境との対話に使われている。
ReSpActは、タスク解決のための推論、意思決定、動的対話をシームレスに統合するように設計されている。
タスク指向対話システム(MultiWOZ)や意思決定タスク(ALFWorld, WebShop)を含むユーザインタラクション設定におけるReSpActの評価を行う。
論文 参考訳(メタデータ) (2024-11-01T15:57:45Z) - Repairs in a Block World: A New Benchmark for Handling User Corrections with Multi-Modal Language Models [48.42142115255159]
命令追従操作タスクにおけるマルチモーダルなTPRシーケンスのデータセットであるBlockWorld-Repairsをリリースする。
現状のビジョンと言語モデル(VLM)を複数の設定で評価し,TPRの処理能力と正確な応答性に着目した。
以上の結果から,これらのモデルはまだマルチモーダル・コラボレーティブ・セッティングにデプロイする準備が整っていないことが示唆された。
論文 参考訳(メタデータ) (2024-09-21T21:06:25Z) - AQA: Adaptive Question Answering in a Society of LLMs via Contextual Multi-Armed Bandit [59.10281630985958]
質問応答(QA)では、異なる質問を異なる回答戦略で効果的に扱うことができる。
本稿では,各質問に対して最適なQA戦略を適応的に選択する動的手法を提案する。
提案手法は,複数のモジュールを持つQAシステムの適応的オーケストレーションに有効であることを示す。
論文 参考訳(メタデータ) (2024-09-20T12:28:18Z) - One Agent Too Many: User Perspectives on Approaches to Multi-agent
Conversational AI [10.825570464035872]
システムユーザビリティとシステムパフォーマンスの両方において,エージェントオーケストレーションを抽象化する上で,ユーザにとって重要な選択肢があることが示される。
人間の選択した回答の1%以内に評価された質の高い応答を提供できることを実証する。
論文 参考訳(メタデータ) (2024-01-13T17:30:57Z) - PICK: Polished & Informed Candidate Scoring for Knowledge-Grounded
Dialogue Systems [59.1250765143521]
現在の知識接地対話システムは、生成された応答を人間に好まれる品質に合わせるのに失敗することが多い。
我々は,世代別再描画フレームワークであるPolseed & Informed Candidate Scoring (PICK)を提案する。
対話履歴に関連性を維持しつつ,より忠実な応答を生成するためのPICKの有効性を示す。
論文 参考訳(メタデータ) (2023-09-19T08:27:09Z) - Establishing Shared Query Understanding in an Open Multi-Agent System [1.2031796234206138]
本研究では,協調を要するタスクを実行するために,2つのエージェント間の共通理解を開発する手法を提案する。
本手法は,オープンマルチエージェントシステムにおけるタスク指向コミュニケーションの効率向上に重点を置いている。
論文 参考訳(メタデータ) (2023-05-16T11:07:05Z) - Dialogue History Matters! Personalized Response Selectionin Multi-turn
Retrieval-based Chatbots [62.295373408415365]
本稿では,コンテキスト応答マッチングのためのパーソナライズドハイブリッドマッチングネットワーク(phmn)を提案する。
1) ユーザ固有の対話履歴からパーソナライズされた発話行動を付加的なマッチング情報として抽出する。
ユーザ識別による2つの大規模データセット,すなわちパーソナライズされた対話 Corpus Ubuntu (P-Ubuntu) とパーソナライズされたWeiboデータセット (P-Weibo) のモデルを評価する。
論文 参考訳(メタデータ) (2021-03-17T09:42:11Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z) - Multi-Stage Conversational Passage Retrieval: An Approach to Fusing Term
Importance Estimation and Neural Query Rewriting [56.268862325167575]
マルチステージアドホックIRシステムにクエリ再構成を組み込んだ会話経路検索(ConvPR)に取り組む。
本稿では,1項の重要度推定と2項のニューラルクエリ書き換えという2つの手法を提案する。
前者に対しては、周波数に基づく信号を用いて会話コンテキストから抽出した重要な用語を用いて会話クエリを拡張する。
後者では,会話クエリを,事前訓練されたシーケンス列列列モデルを用いて,自然な,スタンドアロンの,人間の理解可能なクエリに再構成する。
論文 参考訳(メタデータ) (2020-05-05T14:30:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。