論文の概要: Towards Balancing Preference and Performance through Adaptive Personalized Explainability
- arxiv url: http://arxiv.org/abs/2504.13856v1
- Date: Fri, 21 Mar 2025 17:31:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.614139
- Title: Towards Balancing Preference and Performance through Adaptive Personalized Explainability
- Title(参考訳): 適応的パーソナライズされた説明可能性による嗜好とパフォーマンスのバランス
- Authors: Andrew Silva, Pradyumna Tambwekar, Mariah Schrum, Matthew Gombolay,
- Abstract要約: シミュレーション自動車(AV)ドメインに設定した2つのユーザスタディを提示する。
本研究では,(1)xAIの個体群レベルの嗜好と(2)ロボットの説明を提供するためのパーソナライズ戦略について検討する。
- 参考スコア(独自算出の注目度): 5.297303831218776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As robots and digital assistants are deployed in the real world, these agents must be able to communicate their decision-making criteria to build trust, improve human-robot teaming, and enable collaboration. While the field of explainable artificial intelligence (xAI) has made great strides to enable such communication, these advances often assume that one xAI approach is ideally suited to each problem (e.g., decision trees to explain how to triage patients in an emergency or feature-importance maps to explain radiology reports). This fails to recognize that users have diverse experiences or preferences for interaction modalities. In this work, we present two user-studies set in a simulated autonomous vehicle (AV) domain. We investigate (1) population-level preferences for xAI and (2) personalization strategies for providing robot explanations. We find significant differences between xAI modes (language explanations, feature-importance maps, and decision trees) in both preference (p < 0.01) and performance (p < 0.05). We also observe that a participant's preferences do not always align with their performance, motivating our development of an adaptive personalization strategy to balance the two. We show that this strategy yields significant performance gains (p < 0.05), and we conclude with a discussion of our findings and implications for xAI in human-robot interactions.
- Abstract(参考訳): ロボットとデジタルアシスタントが現実世界に配備されるため、これらのエージェントは、信頼の構築、人間とロボットのコラボレーションの改善、コラボレーションの実現のために、意思決定基準を伝達できなければならない。
説明可能な人工知能(xAI)の分野は、そのようなコミュニケーションを可能にするために大きな進歩を遂げてきたが、これらの進歩は、一つのxAIアプローチが各問題に理想的に適していると仮定することが多い(例えば、緊急時に患者をトリアージする方法や、放射線学の報告を説明するための特徴重要地図を説明するための決定木など)。
これは、ユーザーが多様な体験や相互作用のモダリティを好んでいることを認識できない。
本研究では,シミュレートされた自律走行車(AV)ドメインに設定した2つのユーザスタディを示す。
本研究では,(1)xAIの個体群レベルの嗜好と(2)ロボットの説明を提供するためのパーソナライズ戦略について検討する。
好み(p < 0.01)と性能(p < 0.05)において,xAIモード(言語説明,特徴重要度マップ,決定木)に有意差が認められた。
また、参加者の好みが必ずしもパフォーマンスに合致するとは限らないことも観察し、両者のバランスをとるための適応的パーソナライズ戦略の開発を動機付けている。
我々は,この戦略が大きなパフォーマンス向上をもたらすことを示し(p<0.05),人間とロボットの相互作用におけるxAIの発見と意義について考察した。
関連論文リスト
- How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Study on the Helpfulness of Explainable Artificial Intelligence [0.0]
法律、ビジネス、倫理的要件は、効果的なXAIの使用を動機付けている。
本稿では,ユーザがプロキシタスクをうまく実行する能力を通じて,XAI手法を評価することを提案する。
言い換えれば、人間の意思決定におけるXAIの有用性について論じる。
論文 参考訳(メタデータ) (2024-10-14T14:03:52Z) - Dynamic Explanation Emphasis in Human-XAI Interaction with Communication Robot [2.6396287656676725]
DynEmphは、XAI生成した説明を物理的表現で強調する場所を決定するためのコミュニケーションロボットの方法である。
特定のポイントをユーザに強調する効果を予測し、予測されたユーザ決定とAIが提案する決定との違いを最小化することを目指している。
論文 参考訳(メタデータ) (2024-03-21T16:50:12Z) - How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Human-AI collaboration is not very collaborative yet: A taxonomy of interaction patterns in AI-assisted decision making from a systematic review [6.013543974938446]
意思決定支援システムにおける人工知能の活用は、技術的進歩に不相応に焦点を合わせてきた。
人間中心の視点は、既存のプロセスとのシームレスな統合のためにAIソリューションを設計することで、この懸念を緩和しようとする。
論文 参考訳(メタデータ) (2023-10-30T17:46:38Z) - Learning Complementary Policies for Human-AI Teams [22.13683008398939]
本稿では,効果的な行動選択のための新しい人間-AI協調のための枠組みを提案する。
私たちのソリューションは、人間とAIの相補性を利用して意思決定報酬を最大化することを目的としています。
論文 参考訳(メタデータ) (2023-02-06T17:22:18Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Advancing Human-AI Complementarity: The Impact of User Expertise and
Algorithmic Tuning on Joint Decision Making [10.890854857970488]
ユーザのドメイン知識、AIシステムのメンタルモデル、レコメンデーションへの信頼など、多くの要因がヒューマンAIチームの成功に影響を与える可能性がある。
本研究は,非自明な血管ラベル作成作業において,血管が流れているか停止しているかを被験者に示すことを目的とした。
以上の結果から,AI-Assistantからの推薦はユーザの意思決定に役立つが,AIに対するユーザベースラインのパフォーマンスや,AIエラー型の相補的チューニングといった要因は,チーム全体のパフォーマンスに大きな影響を及ぼすことが示された。
論文 参考訳(メタデータ) (2022-08-16T21:39:58Z) - Investigations of Performance and Bias in Human-AI Teamwork in Hiring [30.046502708053097]
AIによる意思決定では、効果的なハイブリッドチームワーク(ヒューマンAI)は、AIのパフォーマンスにのみ依存するものではない。
本研究では,モデルの予測性能とバイアスの両方が,推薦型意思決定タスクにおいてどのように人間に伝達されるかを検討する。
論文 参考訳(メタデータ) (2022-02-21T17:58:07Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。