論文の概要: PRINCIPLES: Synthetic Strategy Memory for Proactive Dialogue Agents
- arxiv url: http://arxiv.org/abs/2509.17459v1
- Date: Mon, 22 Sep 2025 07:53:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.277032
- Title: PRINCIPLES: Synthetic Strategy Memory for Proactive Dialogue Agents
- Title(参考訳): PRINCIPLES:プロアクティブ対話エージェントのための合成戦略記憶
- Authors: Namyoung Kim, Kai Tzu-iunn Ong, Yeonjun Hwang, Minseok Kang, Iiseo Jihn, Gayoung Kim, Minju Kim, Jinyoung Yeo,
- Abstract要約: 本稿では,プロアクティブ対話エージェントのための合成戦略メモリPRINCIPLESを提案する。
PRINCIPLESは、オフラインのセルフプレイシミュレーションから派生し、戦略計画のガイドとなる再利用可能な知識として機能する。
感情的支援領域と説得領域の両方においてPRINCIPLESを評価し,強いベースラインよりも一貫した改善が示された。
- 参考スコア(独自算出の注目度): 16.819463022406627
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Dialogue agents based on large language models (LLMs) have shown promising performance in proactive dialogue, which requires effective strategy planning. However, existing approaches to strategy planning for proactive dialogue face several limitations: limited strategy coverage, preference bias in planning, and reliance on costly additional training. To address these, we propose PRINCIPLES: a synthetic strategy memory for proactive dialogue agents. PRINCIPLES is derived through offline self-play simulations and serves as reusable knowledge that guides strategy planning during inference, eliminating the need for additional training and data annotation. We evaluate PRINCIPLES in both emotional support and persuasion domains, demonstrating consistent improvements over strong baselines. Furthermore, PRINCIPLES maintains its robustness across extended and more diverse evaluation settings. See our project page at https://huggingface.co/spaces/kimnamssya/Principles.
- Abstract(参考訳): 大規模言語モデル(LLM)に基づく対話エージェントは、効果的な戦略計画を必要とするプロアクティブ対話において有望な性能を示す。
しかしながら、積極的な対話のための戦略計画への既存のアプローチには、限られた戦略カバレッジ、計画における優先バイアス、コストのかかる追加トレーニングへの依存など、いくつかの制限がある。
そこで本研究では,プロアクティブ対話エージェントのための合成戦略メモリPRINCIPLESを提案する。
PRINCIPLESは、オフラインのセルフプレイシミュレーションから派生したもので、推論中の戦略計画を支援する再利用可能な知識として機能し、追加のトレーニングやデータアノテーションの必要性を排除している。
感情的支援領域と説得領域の両方においてPRINCIPLESを評価し,強いベースラインよりも一貫した改善が示された。
さらにPRINCIPLESは、拡張されたより多様な評価設定にわたって堅牢性を維持している。
プロジェクトのページはhttps://huggingface.co/spaces/kimnamssya/Principlesにある。
関連論文リスト
- EPO: Explicit Policy Optimization for Strategic Reasoning in LLMs via Reinforcement Learning [69.55982246413046]
戦略的推論のための明示的なポリシー最適化(EPO)を提案する。
我々は,マルチターン強化学習(RL)による戦略的推論モデルを訓練し,プロセス報酬と反復的な自己プレイを活用する。
本研究は, EPOに出現する様々な協調的推論機構と, 新規戦略の創出における有効性を明らかにするものである。
論文 参考訳(メタデータ) (2025-02-18T03:15:55Z) - Rethinking the Alignment of Psychotherapy Dialogue Generation with Motivational Interviewing Strategies [30.237161801912453]
大規模言語モデル(LLM)は、特にモチベーション・インタビュー(MI)の文脈において、精神療法的対話を生み出すことを約束している。
MI戦略をMIスキルのセットとして適用することで、説明可能性を備えたより制御可能な治療に順応した会話が実現可能となる。
論文 参考訳(メタデータ) (2024-08-12T23:19:02Z) - Planning Like Human: A Dual-process Framework for Dialogue Planning [31.995557540062553]
大規模言語モデル(LLM)における対話計画を強化するための2段階対話計画フレームワークを提案する。
心理学における二重過程理論に触発されて、直感的(高速)と分析的(スロー)の2つの思考様式を具現化した枠組みを提案する。
実験により,DPDPが高品質な対話と操作効率を両立し,既存手法よりも優れていることを確認した。
論文 参考訳(メタデータ) (2024-06-08T06:52:47Z) - Strength Lies in Differences! Improving Strategy Planning for Non-collaborative Dialogues via Diversified User Simulation [69.5677514160986]
本研究では,多様なユーザとの戦略的対話に携わる非協力的対話エージェントについて検討する。
これは既存の対話エージェントに2つの大きな課題をもたらす。
本稿では,ユーザ認識型戦略計画モジュールと人口ベーストレーニングパラダイムを取り入れた,適切な戦略計画の能力を高めるためのTripを提案する。
論文 参考訳(メタデータ) (2024-03-11T14:38:16Z) - Plug-and-Play Policy Planner for Large Language Model Powered Dialogue
Agents [121.46051697742608]
そこで本稿では,PDPPという言語モデルプラグインを用いて対話問題を整理するための新たな対話ポリシー計画パラダイムを提案する。
具体的には、利用可能な人間の注釈付きデータに対する教師付き微調整を容易にするための新しいトレーニングフレームワークを開発する。
PPDPPは3つの異なるプロアクティブな対話アプリケーションにおいて、既存のアプローチを一貫して、実質的に上回っている。
論文 参考訳(メタデータ) (2023-11-01T03:20:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。