論文の概要: SEAD: Self-Evolving Agent for Multi-Turn Service Dialogue
- arxiv url: http://arxiv.org/abs/2602.03548v1
- Date: Tue, 03 Feb 2026 14:01:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.490947
- Title: SEAD: Self-Evolving Agent for Multi-Turn Service Dialogue
- Title(参考訳): SEAD: マルチターンサービス対話のためのセルフ進化エージェント
- Authors: Yuqin Dai, Ning Gao, Wei Zhang, Jie Wang, Zichen Luo, Jinpeng Wang, Yujie Wang, Ruiyuan Wu, Chaozheng Wang,
- Abstract要約: 大規模アノテーションを使わずに効果的な戦略を学習できるSEAD(Self-Evolving Agent for Service Dialogue)を提案する。
SEADは、ユーザモデリングを2つのコンポーネントに分離します。トレーニングカリキュラムを管理するために多様なユーザ状態を生成するプロファイルコントローラと、現実的なロールプレイングに焦点を当てたユーザロールプレイモデルです。
- 参考スコア(独自算出の注目度): 22.580066622765514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models have demonstrated remarkable capabilities in open-domain dialogues. However, current methods exhibit suboptimal performance in service dialogues, as they rely on noisy, low-quality human conversation data. This limitation arises from data scarcity and the difficulty of simulating authentic, goal-oriented user behaviors. To address these issues, we propose SEAD (Self-Evolving Agent for Service Dialogue), a framework that enables agents to learn effective strategies without large-scale human annotations. SEAD decouples user modeling into two components: a Profile Controller that generates diverse user states to manage training curriculum, and a User Role-play Model that focuses on realistic role-playing. This design ensures the environment provides adaptive training scenarios rather than acting as an unfair adversary. Experiments demonstrate that SEAD significantly outperforms Open-source Foundation Models and Closed-source Commercial Models, improving task completion rate by 17.6% and dialogue efficiency by 11.1%. Code is available at: https://github.com/Da1yuqin/SEAD.
- Abstract(参考訳): 大規模言語モデルはオープンドメイン対話において顕著な機能を示した。
しかし、現在の手法は、ノイズの多い低品質の人間の会話データに依存するため、サービス対話において最適なパフォーマンスを示す。
この制限は、データの不足と、真正でゴール指向のユーザの振る舞いをシミュレートすることの難しさから生じる。
これらの問題に対処するため,大規模な人的アノテーションを使わずに効果的な戦略を学習できるSEAD(Self-Evolving Agent for Service Dialogue)を提案する。
SEADは、ユーザモデリングを2つのコンポーネントに分離します。トレーニングカリキュラムを管理するために多様なユーザ状態を生成するプロファイルコントローラと、現実的なロールプレイングに焦点を当てたユーザロールプレイモデルです。
この設計により、環境が不公平な敵として振る舞うのではなく、適応的なトレーニングシナリオを提供することが保証される。
SEADはオープンソース・ファンデーション・モデルやクローズド・ソース・コマーシャル・モデルよりも大幅に優れており、タスク完了率が17.6%向上し、対話効率が11.1%向上している。
コードは、https://github.com/Da1yuqin/SEAD.comで入手できる。
関連論文リスト
- MADS: Multi-Agent Dialogue Simulation for Diverse Persuasion Data Generation [10.585352489359684]
エージェントによるマルチターン対話を生成するスケーラブルなフレームワークMADS(Multi-Agent Dialogue Simulation)を提案する。
MADSには3つの調整されたエージェントがある: ユーザエージェントは、Zodiac SignsやMBTIタイプのようなパーソナライズ記号を活用することで、多様なペルソナ駆動の振る舞いをシミュレートするように設計されている。
さらに,ユーザによるCoA(Chain-of-Attitude)モデリングとLLMのパーサーション評価を通じて,その有効性を検証する。
論文 参考訳(メタデータ) (2025-09-30T06:55:39Z) - Personas within Parameters: Fine-Tuning Small Language Models with Low-Rank Adapters to Mimic User Behaviors [1.8352113484137629]
正確なレコメンデーションモデルを開発する上での長年の課題は、主にユーザインタラクションの複雑な性質のために、ユーザの振る舞いをシミュレートすることである。
本研究では, 凍結したLarge Language Models (LLMs) を用いてロバストなユーザ表現を抽出し, 微調整小言語モデル (SLMs) を用いたコスト効率, 資源効率のよいユーザエージェントをシミュレートする手法を提案する。
提案手法の有効性を実証し,本手法を用いて開発したユーザエージェントが,オフラインメトリクスとレコメンデータシステムの実環境性能のギャップを埋める可能性を示した。
論文 参考訳(メタデータ) (2025-08-18T22:14:57Z) - PersonaAgent: When Large Language Model Agents Meet Personalization at Test Time [87.99027488664282]
PersonaAgentは、汎用的なパーソナライゼーションタスクに対処するために設計されたフレームワークである。
パーソナライズされたメモリモジュールとパーソナライズされたアクションモジュールを統合する。
テストタイムのユーザ嗜好アライメント戦略は、リアルタイムのユーザの嗜好アライメントを保証する。
論文 参考訳(メタデータ) (2025-06-06T17:29:49Z) - Injecting Salesperson's Dialogue Strategies in Large Language Models with Chain-of-Thought Reasoning [23.919423630938226]
SalesBotは、Chit-chatからタスク指向のシナリオへ移行し、セールスエージェントをトレーニングする対話をシミュレートする。
最初のデータはスムーズなトランジションとコヒーレントなロングターンダイアログを欠いていたため、セールス・カストマー相互作用の自然性が低かった。
営業担当者のインタラクションを学習し,チェーン・オブ・ソート(CoT)推論を用いた新しいモデル「SalesAgent」を紹介した。
論文 参考訳(メタデータ) (2024-04-29T10:12:04Z) - AgentCF: Collaborative Learning with Autonomous Language Agents for
Recommender Systems [112.76941157194544]
本稿では,エージェントベースの協調フィルタリングにより,レコメンデータシステムにおけるユーザとイテムのインタラクションをシミュレートするエージェントCFを提案する。
我々は、ユーザだけでなく、アイテムをエージェントとして、創造的に考慮し、両方のエージェントを同時に最適化する協調学習アプローチを開発します。
全体として、最適化されたエージェントは、ユーザ・イテム、ユーザ・ユーザ・ユーザ、アイテム・イテム、集合的インタラクションなど、フレームワーク内での多様なインタラクションの振る舞いを示す。
論文 参考訳(メタデータ) (2023-10-13T16:37:14Z) - Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - Manual-Guided Dialogue for Flexible Conversational Agents [84.46598430403886]
対話データを効率的に構築し、利用する方法や、さまざまなドメインにモデルを大規模にデプロイする方法は、タスク指向の対話システムを構築する上で重要な問題である。
エージェントは対話とマニュアルの両方からタスクを学習する。
提案手法は,詳細なドメインオントロジーに対する対話モデルの依存性を低減し,様々なドメインへの適応をより柔軟にする。
論文 参考訳(メタデータ) (2022-08-16T08:21:12Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - Dual Task Framework for Debiasing Persona-grounded Dialogue Dataset [17.403065663306567]
我々は、ペルソナ条件の対話エージェントを改善するために、データ中心のアプローチを導入する。
具体的には,2つのタスクの原始的双対構造を活用することで,対話データセット/エージェントを改善するための関連するペルソナを強化する。
Persona-Chat の実験により,本手法は訓練済みの LM よりも精度が 11.7 ポイント向上していることが示された。
論文 参考訳(メタデータ) (2022-02-11T04:08:46Z) - RADDLE: An Evaluation Benchmark and Analysis Platform for Robust
Task-oriented Dialog Systems [75.87418236410296]
我々はraddleベンチマーク、コーパスのコレクション、および様々なドメインのモデルのパフォーマンスを評価するためのツールを紹介します。
RADDLEは強力な一般化能力を持つモデルを好んで奨励するように設計されている。
先行学習と微調整に基づく最近の最先端システムの評価を行い,異種ダイアログコーパスに基づく基礎的な事前学習が,ドメインごとの個別モデルをトレーニングするよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-29T08:58:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。