論文の概要: Personas Evolved: Designing Ethical LLM-Based Conversational Agent Personalities
- arxiv url: http://arxiv.org/abs/2502.20513v1
- Date: Thu, 27 Feb 2025 20:46:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:43:01.261016
- Title: Personas Evolved: Designing Ethical LLM-Based Conversational Agent Personalities
- Title(参考訳): 進化するペルソナ : 倫理的LLMに基づく会話エージェントパーソナリティの設計
- Authors: Smit Desai, Mateusz Dubiel, Nima Zargham, Thomas Mildner, Laura Spillner,
- Abstract要約: 大言語モデル (LLM) は会話型ユーザインタフェース (CUI) に革命をもたらした。
LLMは膨大なデータセットから動的に応答を生成し、その振る舞いを予測しにくくし、管理しにくくする。
このワークショップは、学際的な対話を促進することによって、CUIと幅広いAIコミュニティのギャップを埋めることを目的としている。
- 参考スコア(独自算出の注目度): 8.397165953794403
- License:
- Abstract: The emergence of Large Language Models (LLMs) has revolutionized Conversational User Interfaces (CUIs), enabling more dynamic, context-aware, and human-like interactions across diverse domains, from social sciences to healthcare. However, the rapid adoption of LLM-based personas raises critical ethical and practical concerns, including bias, manipulation, and unforeseen social consequences. Unlike traditional CUIs, where personas are carefully designed with clear intent, LLM-based personas generate responses dynamically from vast datasets, making their behavior less predictable and harder to govern. This workshop aims to bridge the gap between CUI and broader AI communities by fostering a cross-disciplinary dialogue on the responsible design and evaluation of LLM-based personas. Bringing together researchers, designers, and practitioners, we will explore best practices, develop ethical guidelines, and promote frameworks that ensure transparency, inclusivity, and user-centered interactions. By addressing these challenges collaboratively, we seek to shape the future of LLM-driven CUIs in ways that align with societal values and expectations.
- Abstract(参考訳): 大規模言語モデル(LLM)の出現は、会話型ユーザインタフェース(CUI)に革命をもたらし、社会科学から医療まで、さまざまな領域にわたるよりダイナミックでコンテキスト対応、人間的なインタラクションを可能にした。
しかし、LLMに基づくペルソナの急速な採用は、偏見、操作、予期せぬ社会的結果など、倫理的・実践的な問題を引き起こす。
パーソナを明確な意図で慎重に設計する従来のCUIとは異なり、LLMベースのペルソナは巨大なデータセットから動的に応答を生成し、その振る舞いを予測しにくくし、管理しにくくする。
このワークショップは、LLMベースのペルソナの設計と評価に関する学際的な対話を促進することによって、CUIと幅広いAIコミュニティのギャップを埋めることを目的としている。
研究者、デザイナー、実践者を集結させ、ベストプラクティスを探求し、倫理的ガイドラインを開発し、透明性、傾倒性、ユーザ中心のインタラクションを保証するフレームワークを促進する。
これらの課題に協力して取り組むことで、社会的な価値や期待に合わせる形で、LLM駆動型CUIの未来を形作ろうとしています。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Evaluating Cultural and Social Awareness of LLM Web Agents [113.49968423990616]
CASAは,大規模言語モデルの文化的・社会的規範に対する感受性を評価するためのベンチマークである。
提案手法は,標準に違反するユーザクエリや観察を検知し,適切に応答するLLMエージェントの能力を評価する。
実験により、現在のLLMは非エージェント環境で大幅に性能が向上していることが示された。
論文 参考訳(メタデータ) (2024-10-30T17:35:44Z) - Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.74265453289855]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースにおける対話型フィードバック機能の可能性について検討し,ユーザ入力の形状やイテレーションへの参加について分析する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - CogErgLLM: Exploring Large Language Model Systems Design Perspective Using Cognitive Ergonomics [0.0]
LLMと認知エルゴノミクスを統合することは、人間とAIの相互作用における安全性、信頼性、ユーザ満足度を改善するために重要である。
現在のLLMの設計は、この統合を欠いていることが多く、結果として人間の認知能力や限界と完全に一致しない可能性がある。
論文 参考訳(メタデータ) (2024-07-03T07:59:52Z) - Navigating LLM Ethics: Advancements, Challenges, and Future Directions [5.023563968303034]
本研究では,人工知能分野におけるLarge Language Models(LLM)を取り巻く倫理的問題に対処する。
LLMと他のAIシステムによってもたらされる共通の倫理的課題を探求する。
幻覚、検証可能な説明責任、検閲の複雑さの復号化といった課題を強調している。
論文 参考訳(メタデータ) (2024-05-14T15:03:05Z) - Integrating Emotional and Linguistic Models for Ethical Compliance in Large Language Models [2.5200794639628032]
本研究は、感情や倫理に関する言語行動をよりよく管理するために、大規模言語モデル(LLM)の高度な方法論を開発する。
我々は,LLMがグローバルな人的価値を内在化し,反映する能力を高めるための,敵対的枠組みであるDIKEを紹介する。
論文 参考訳(メタデータ) (2024-05-11T19:26:00Z) - Addressing Social Misattributions of Large Language Models: An HCXAI-based Approach [45.74830585715129]
我々は,大規模言語モデル(LLM)における社会貢献のリスクに対処するために,社会透明性(ST)フレームワークの拡張を提案する。
LLMは、デザイナーの意図とユーザの社会的属性に対する認識のミスマッチを引き起こし、感情的な操作や危険な行動を促進するリスクを負う。
設計者やユーザによるLSMに割り当てられた特定の社会的属性を明らかにするため,第5の"W-question"によるSTフレームワークの拡張を提案する。
論文 参考訳(メタデータ) (2024-03-26T17:02:42Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。