論文の概要: Minion: A Technology Probe for Resolving Value Conflicts through Expert-Driven and User-Driven Strategies in AI Companion Applications
- arxiv url: http://arxiv.org/abs/2411.07042v1
- Date: Mon, 11 Nov 2024 14:49:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:13:11.562608
- Title: Minion: A Technology Probe for Resolving Value Conflicts through Expert-Driven and User-Driven Strategies in AI Companion Applications
- Title(参考訳): Minion: AIコンパニオンアプリケーションにおけるエキスパート駆動とユーザ駆動の戦略を通じて、価値の衝突を解決するための技術プローブ
- Authors: Xianzhe Fan, Qing Xiao, Xuhui Zhou, Yuran Su, Zhicong Lu, Maarten Sap, Hong Shen,
- Abstract要約: 私たちは、AIコンパニオンとの競合に関する151のユーザ苦情を分析したフォーマティブな研究を行います。
それらに基づいて、ユーザによる人間とAIの価値の衝突を解決するテクノロジプローブMinionを作りました。
我々は,価値相反を解決するためのユーザの反応,好み,ニーズを要約し,矛盾を低減し,より効果的に解決するための設計上の意味を提案する。
- 参考スコア(独自算出の注目度): 35.39908177331248
- License:
- Abstract: AI companions based on large language models can role-play and converse very naturally. When value conflicts arise between the AI companion and the user, it may offend or upset the user. Yet, little research has examined such conflicts. We first conducted a formative study that analyzed 151 user complaints about conflicts with AI companions, providing design implications for our study. Based on these, we created Minion, a technology probe to help users resolve human-AI value conflicts. Minion applies a user-empowerment intervention method that provides suggestions by combining expert-driven and user-driven conflict resolution strategies. We conducted a technology probe study, creating 40 value conflict scenarios on Character.AI and Talkie. 22 participants completed 274 tasks and successfully resolved conflicts 94.16% of the time. We summarize user responses, preferences, and needs in resolving value conflicts, and propose design implications to reduce conflicts and empower users to resolve them more effectively.
- Abstract(参考訳): 大きな言語モデルに基づくAIコンパニオンはロールプレイが可能で、非常に自然に会話できる。
AIコンパニオンとユーザの間に価値の衝突が発生した場合、ユーザを怒らせるか、動揺させる可能性がある。
しかし、そのような紛争を調査する研究はほとんどない。
われわれはまず、AIコンパニオンとの対立に関する151のユーザー苦情を分析し、この研究にデザイン上の意味について分析した。
それらに基づいて、ユーザによる人間とAIの価値の衝突を解決するテクノロジプローブMinionを作りました。
Minionは、エキスパート駆動とユーザ主導のコンフリクト解決戦略を組み合わせた提案を提供する、ユーザ権限の介入手法を適用している。
我々は、Kera.AIとTalkieで40のバリューコンフリクトシナリオを作成し、技術調査を行った。
22人の参加者が274のタスクを完了し、94.16%の紛争を解決した。
我々は,価値相反を解決するためのユーザの反応,好み,ニーズを要約し,矛盾を低減し,より効果的に解決するための設計上の意味を提案する。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making [47.33241893184721]
AIによる意思決定において、人間はしばしばAIの提案を受動的にレビューし、それを受け入れるか拒否するかを決定する。
意思決定における人間-AIの意見の対立に関する議論と人間のリフレクションを促進する新しい枠組みであるHuman-AI Deliberationを提案する。
人間の熟考の理論に基づいて、この枠組みは人間とAIを次元レベルの意見の引用、熟考的議論、意思決定の更新に携わる。
論文 参考訳(メタデータ) (2024-03-25T14:34:06Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Rehearsal: Simulating Conflict to Teach Conflict Resolution [54.32934135393982]
リハーサル(Rehearsal)は、ユーザーがシミュレート可能なインターロケータで競合をリハーサルできるシステムである。
ユーザはRehearsalを使って、事前に定義されたさまざまなコンフリクトシナリオの処理を実践できる。
リハーサルはIRPを使って紛争解決理論に基づく発話を生成する。
論文 参考訳(メタデータ) (2023-09-21T17:59:20Z) - The Impact of Imperfect XAI on Human-AI Decision-Making [8.305869611846775]
鳥種識別作業において,誤った説明が人間の意思決定行動にどのように影響するかを評価する。
この結果から,AIと人間-AIチームパフォーマンスへの不完全なXAIと,人間の専門知識レベルの影響が明らかになった。
論文 参考訳(メタデータ) (2023-07-25T15:19:36Z) - Using Human-Guided Causal Knowledge for More Generalized Robot Task
Planning [0.0]
AIとは異なり、人間は移動可能なソリューションを見つけることに精通している。
我々は、ロボットが新しい環境に一般化できるソリューションを見つけるのを助けるために、人間の指導による因果知識を利用することを提案する。
論文 参考訳(メタデータ) (2021-10-09T23:46:44Z) - Deciding Fast and Slow: The Role of Cognitive Biases in AI-assisted
Decision-making [46.625616262738404]
我々は、認知科学の分野からの知識を用いて、人間とAIの協調的な意思決定設定における認知バイアスを考慮します。
私たちは、人間とAIのコラボレーションでよく見られるバイアスであるバイアスのアンカーに特に焦点を当てています。
論文 参考訳(メタデータ) (2020-10-15T22:25:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。