論文の概要: PersonaCite: VoC-Grounded Interviewable Agentic Synthetic AI Personas for Verifiable User and Design Research
- arxiv url: http://arxiv.org/abs/2601.22288v1
- Date: Thu, 29 Jan 2026 20:03:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.042613
- Title: PersonaCite: VoC-Grounded Interviewable Agentic Synthetic AI Personas for Verifiable User and Design Research
- Title(参考訳): PersonaCite: 検証可能なユーザと設計研究のためのVocCによるインタビュー可能なエージェントAIペルソナ
- Authors: Mario Truss,
- Abstract要約: 本稿では,AIペルソナをエビデンスに縛られた研究機器として再構成するエージェントシステムであるPersonaCiteについて述べる。
プロンプトベースのロールプレイングに依存する従来のアプローチとは異なり、PersonaCiteは会話の各ターン中に実際の音声の成果物を検索し、得られたエビデンスに対する応答を制限し、エビデンスが欠如しているときに明示的に棄権し、レスポンスレベルのソース属性を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLM-based and agent-based synthetic personas are increasingly used in design and product decision-making, yet prior work shows that prompt-based personas often produce persuasive but unverifiable responses that obscure their evidentiary basis. We present PersonaCite, an agentic system that reframes AI personas as evidence-bounded research instruments through retrieval-augmented interaction. Unlike prior approaches that rely on prompt-based roleplaying, PersonaCite retrieves actual voice-of-customer artifacts during each conversation turn, constrains responses to retrieved evidence, explicitly abstains when evidence is missing, and provides response-level source attribution. Through semi-structured interviews and deployment study with 14 industry experts, we identify preliminary findings on perceived benefits, validity concerns, and design tensions, and propose Persona Provenance Cards as a documentation pattern for responsible AI persona use in human-centered design workflows.
- Abstract(参考訳): LLMおよびエージェントベースの合成ペルソナは、デザインや製品決定にますます使われてきているが、それ以前の研究は、プロンプトベースのペルソナがしばしば説得力があるが検証不可能な応答を生じさせ、その明白な基礎を曖昧にしていることを示している。
本稿では,AIペルソナをエビデンスに縛られた研究機器として再構成するエージェントシステムであるPersonaCiteについて述べる。
プロンプトベースのロールプレイングに依存する従来のアプローチとは異なり、PersonaCiteは会話の各ターン中に実際の音声の成果物を検索し、得られたエビデンスに対する応答を制限し、エビデンスが欠如しているときに明示的に棄権し、レスポンスレベルのソース属性を提供する。
14の業界専門家による半構造化インタビューとデプロイメント調査を通じて、認識されるメリット、妥当性に関する懸念、デザインの緊張に関する予備的な発見を特定し、人間中心のデザインワークフローにおけるAIペルソナの責任を負うためのドキュメントパターンとしてペルソナ証明カードを提案する。
関連論文リスト
- PAL: Persona-Augmented Emotional Support Conversation Generation [54.069321178816686]
メンタルヘルス支援のための人的資源が不足しているため、サポートのために会話エージェントを採用する必要性が高まっている。
近年の研究では、感情支援のための対話モデルの有効性が実証されている。
本研究では,探索者のペルソナを動的に推論・モデル化する枠組みを提案する。
論文 参考訳(メタデータ) (2022-12-19T04:12:54Z) - INSCIT: Information-Seeking Conversations with Mixed-Initiative
Interactions [47.90088587508672]
InSCItは、混合開始型インタラクションによる情報探索会話のためのデータセットである。
ユーザーエージェントは805対人会話から4.7Kである。
対話型知識認識とオープンドメイン質問応答の最先端モデルに基づく2つのシステムの結果を報告する。
論文 参考訳(メタデータ) (2022-07-02T06:18:12Z) - Partner Matters! An Empirical Study on Fusing Personas for Personalized
Response Selection in Retrieval-Based Chatbots [51.091235903442715]
本稿では,自己とパートナーの話者が応答選択の課題に与える影響について検討する。
4つのペルソナ融合戦略が設計されており、異なる方法でペルソナがコンテキストや応答と相互作用することを前提としている。
Persona-Chatデータセットに関する実証研究は、パートナーペルソナが応答選択の精度を向上させることができることを示している。
論文 参考訳(メタデータ) (2021-05-19T10:32:30Z) - A Neural Topical Expansion Framework for Unstructured Persona-oriented
Dialogue Generation [52.743311026230714]
Persona Exploration and Exploitation (PEE)は、事前に定義されたユーザペルソナ記述を意味論的に相関したコンテンツで拡張することができる。
PEEはペルソナ探索とペルソナ搾取という2つの主要なモジュールで構成されている。
提案手法は, 自動評価と人的評価の両面で, 最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-06T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。