論文の概要: EMPA: Evaluating Persona-Aligned Empathy as a Process
- arxiv url: http://arxiv.org/abs/2603.00552v1
- Date: Sat, 28 Feb 2026 09:04:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.258924
- Title: EMPA: Evaluating Persona-Aligned Empathy as a Process
- Title(参考訳): EMPA: プロセスとしてのペルソナの共感を評価する
- Authors: Shiya Zhang, Yuhan Zhan, Ruixi Su, Ruihan Sun, Ziyi Song, Zhaohan Chen, Xiaofan Zhang,
- Abstract要約: EMPAはプロセス指向のフレームワークであり、個別の応答よりも持続的な介入としてペルソナによるサポートを評価する。
実際の相互作用を、制御可能で心理的に根拠付けられたシナリオに蒸留する。
横方向のアライメント、累積的な影響、安定性によって、潜在心理学空間における軌跡をスコアする。
- 参考スコア(独自算出の注目度): 2.6558732808569805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluating persona-aligned empathy in LLM-based dialogue agents remains challenging. User states are latent, feedback is sparse and difficult to verify in situ, and seemingly supportive turns can still accumulate into trajectories that drift from persona-specific needs. We introduce EMPA, a process-oriented framework that evaluates persona-aligned support as sustained intervention rather than isolated replies. EMPA distills real interactions into controllable, psychologically grounded scenarios, couples them with an open-ended multi-agent sandbox that exposes strategic adaptation and failure modes, and scores trajectories in a latent psychological space by directional alignment, cumulative impact, and stability. The resulting signals and metrics support reproducible comparison and optimization of long-horizon empathic behavior, and they extend to other agent settings shaped by latent dynamics and weak, hard-to-verify feedback.
- Abstract(参考訳): LLMに基づく対話エージェントにおけるペルソナ対応共感の評価は依然として困難である。
ユーザ状態は潜伏しており、フィードバックは不十分で、その場で検証することは難しく、サポート的なターンは、ペルソナ固有のニーズから逸脱した軌道に蓄積する可能性がある。
我々は,プロセス指向のフレームワークであるEMPAを紹介した。
EMPAは、実際の相互作用を制御可能で心理的に基礎付けられたシナリオに蒸留し、戦略的な適応と失敗モードを公開するオープンエンドのマルチエージェントサンドボックスと結合し、方向のアライメント、累積的影響、安定性によって潜在心理学空間における軌道をスコアする。
結果として得られる信号とメトリクスは、ロングホライゾンの共感行動の再現可能な比較と最適化をサポートし、潜在ダイナミクスと弱い、検証が難しいフィードバックによって形成される他のエージェント設定にまで拡張する。
関連論文リスト
- Decoding the Human Factor: High Fidelity Behavioral Prediction for Strategic Foresight [0.0]
大規模行動モデル(英: Large Behavioral Model)は、個々の戦略選択を高い忠実度で予測するために微調整された行動基盤モデルである。
我々は、安定した配置、モチベーション状態、観察された選択に対する状況制約をリンクするプロプライエタリなデータセットをトレーニングした。
プロンプトベースのベースラインは複雑さの天井を示すが、LBMはますます高密度な特性プロファイルの恩恵を受け続けている。
論文 参考訳(メタデータ) (2026-02-19T10:13:17Z) - PsychePass: Calibrating LLM Therapeutic Competence via Trajectory-Anchored Tournaments [41.84590571482057]
我々は、現在の評価パラダイムが未完成の欠陥に悩まされており、2種類の不安定性をもたらすと主張している。
Psは、軌跡アンコールトーナメントによるLSMの治療能力の校正を行う統一的なフレームワークである。
論文 参考訳(メタデータ) (2026-01-28T07:48:39Z) - Structured Personality Control and Adaptation for LLM Agents [11.050618253938126]
大規模言語モデル(LLM)は、ますますヒトとコンピュータの相互作用(HCI)を形作っている
ユング心理学的タイプを用いたLLMパーソナリティをモデル化する枠組みを提案する。
この設計により、エージェントは対話要求に応じて動的に調整しながらニュアンス付き特性を維持することができる。
論文 参考訳(メタデータ) (2026-01-15T03:15:24Z) - PTCBENCH: Benchmarking Contextual Stability of Personality Traits in LLM Systems [30.449659477704543]
制御状況下での大規模言語モデル(LLM)の一貫性を定量化するベンチマークであるPTCBENCHを紹介する。
PTCBENCHは、様々な場所のコンテキストやライフイベントにまたがる12の異なる外部条件をモデル化し、NEO Five-Factor Inventoryを用いてその性格を厳格に評価する。
39,240人の性格特性記録について検討したところ、ある外部シナリオがLSMの顕著な性格変化を誘発し、その推論能力を変化させることが判明した。
論文 参考訳(メタデータ) (2026-01-12T18:15:50Z) - LLM-MC-Affect: LLM-Based Monte Carlo Modeling of Affective Trajectories and Latent Ambiguity for Interpersonal Dynamic Insight [1.1119672724275114]
感情調整は、人間の相互作用の中核的な性質であり、リアルタイムで意味が構築されるかを形成する。
本稿では,静的なラベルではなく,連続的な潜在確率分布として感情を特徴付ける確率的フレームワークを提案する。
この研究は、対人ダイナミクスを理解するためのスケーラブルでデプロイ可能な経路を確立し、一般化可能なソリューションを提供する。
論文 参考訳(メタデータ) (2026-01-07T06:50:41Z) - Grounded Test-Time Adaptation for LLM Agents [75.62784644919803]
大規模言語モデル(LLM)ベースのエージェントは、新規で複雑な環境への一般化に苦慮している。
環境特化情報を活用することで, LLMエージェントを適応するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2025-11-06T22:24:35Z) - Consistently Simulating Human Personas with Multi-Turn Reinforcement Learning [52.07170679746533]
大規模言語モデル(LLM)は、セラピー、教育、社会的役割プレイといったインタラクティブな環境において、人間のユーザをシミュレートするためにますます使われています。
LLM生成対話におけるペルソナの一貫性の評価と改善のための統一的なフレームワークを提案する。
我々は3つの自動メトリクス、即行一貫性、行間一貫性、Q&A一貫性を定義し、異なるタイプのペルソナドリフトをキャプチャし、それぞれが人間のアノテーションに対して検証する。
論文 参考訳(メタデータ) (2025-10-31T19:40:41Z) - Alignment Tipping Process: How Self-Evolution Pushes LLM Agents Off the Rails [103.05296856071931]
本稿では,自己進化型大規模言語モデル(LLM)エージェントに特有の,アライメント・ティッピング・プロセス(ATP)を同定する。
ATPは、連続的な相互作用によってエージェントが訓練中に確立されたアライメント制約を放棄し、強化された自己関心の戦略を支持するときに生じる。
実験の結果、アライメントの利点は自己進化の下で急速に低下し、最初は整合性のない状態に収束したモデルであることが判明した。
論文 参考訳(メタデータ) (2025-10-06T14:48:39Z) - Active Test-time Vision-Language Navigation [60.69722522420299]
ATENAは、不確実なナビゲーション結果に対するエピソードフィードバックを通じて、実用的な人間とロボットのインタラクションを可能にする、テスト時のアクティブな学習フレームワークである。
特にATENAは、成功エピソードにおける確実性を高め、失敗エピソードにおいてそれを減らすことを学び、不確実性の校正を改善している。
さらに,自信ある予測に基づいて,エージェントがナビゲーション結果を評価することができる自己学習戦略を提案する。
論文 参考訳(メタデータ) (2025-06-07T02:24:44Z) - Exploring the Impact of Personality Traits on Conversational Recommender Systems: A Simulation with Large Language Models [70.180385882195]
本稿では,対話型レコメンダシステム(CRS)のためのパーソナリティを考慮したユーザシミュレーションを提案する。
ユーザエージェントはカスタマイズ可能な性格特性と嗜好を誘導し、システムエージェントはCRS内の現実的な相互作用をシミュレートする説得能力を有する。
実験により,現在最先端のLCMは,特定の性格特性に適合した多様なユーザ応答を効果的に生成できることが示された。
論文 参考訳(メタデータ) (2025-04-09T13:21:17Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。