論文の概要: The Utility of Explainable AI in Ad Hoc Human-Machine Teaming
- arxiv url: http://arxiv.org/abs/2209.03943v1
- Date: Thu, 8 Sep 2022 17:35:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 13:25:53.157947
- Title: The Utility of Explainable AI in Ad Hoc Human-Machine Teaming
- Title(参考訳): アドホックな人間-機械チームにおける説明可能なAIの有用性
- Authors: Rohan Paleja, Muyleng Ghuy, Nadun Ranawaka Arachchige, Reed Jensen,
and Matthew Gombolay
- Abstract要約: 本研究では, xAI 技術を人間と機械の組立シナリオに展開することの利点を定量化する2つの新しい人物体実験について述べる。
人・機械チームの構成に強い依存があるため、xAIの利点は普遍的ではない。
- 参考スコア(独自算出の注目度): 0.17616042687330638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in machine learning have led to growing interest in
Explainable AI (xAI) to enable humans to gain insight into the decision-making
of machine learning models. Despite this recent interest, the utility of xAI
techniques has not yet been characterized in human-machine teaming.
Importantly, xAI offers the promise of enhancing team situational awareness
(SA) and shared mental model development, which are the key characteristics of
effective human-machine teams. Rapidly developing such mental models is
especially critical in ad hoc human-machine teaming, where agents do not have a
priori knowledge of others' decision-making strategies. In this paper, we
present two novel human-subject experiments quantifying the benefits of
deploying xAI techniques within a human-machine teaming scenario. First, we
show that xAI techniques can support SA ($p<0.05)$. Second, we examine how
different SA levels induced via a collaborative AI policy abstraction affect ad
hoc human-machine teaming performance. Importantly, we find that the benefits
of xAI are not universal, as there is a strong dependence on the composition of
the human-machine team. Novices benefit from xAI providing increased SA
($p<0.05$) but are susceptible to cognitive overhead ($p<0.05$). On the other
hand, expert performance degrades with the addition of xAI-based support
($p<0.05$), indicating that the cost of paying attention to the xAI outweighs
the benefits obtained from being provided additional information to enhance SA.
Our results demonstrate that researchers must deliberately design and deploy
the right xAI techniques in the right scenario by carefully considering
human-machine team composition and how the xAI method augments SA.
- Abstract(参考訳): 機械学習の最近の進歩は、人間が機械学習モデルの意思決定に関する洞察を得ることを可能にするために、説明可能なAI(xAI)への関心が高まっている。
この最近の関心にもかかわらず、xAI技術の有用性は人間と機械のチームではまだ特徴付けられていない。
重要なことは、xAIはチーム状況認識(SA)を強化し、効果的なヒューマンマシンチームの重要な特徴である共有メンタルモデル開発を提供する。
このような精神モデルの開発は、エージェントが他人の意思決定戦略の事前知識を持たないアドホックな人間-機械チームにおいて特に重要である。
本稿では, xAI 技術を人間と機械の組立シナリオに展開することの利点を定量化する新しい2つの実験について述べる。
まず、xAI技術がSA(p<0.05)$をサポートできることを示します。
第2に,協調型aiポリシ抽象化によって誘導されるsaレベルの違いが,アドホックなヒューマンマシンチームのパフォーマンスにどのように影響するかを検討する。
重要なことに、xAIの利点は、人間-機械チームの構成に強く依存しているため、普遍的ではない。
初心者は、SA(p<0.05$)の増加による恩恵を受けるが、認知的オーバーヘッド(p<0.05$)の影響を受けやすい。
一方、エキスパートパフォーマンスは、xAIベースのサポートを追加することで劣化し(p<0.05$)、xAIに注意を払うコストは、SAを強化するための追加情報を提供することで得られる利益よりも高いことを示している。
この結果から,人間と機械のチーム構成を慎重に検討し,適切なシナリオで適切なxAI手法を意図的に設計し,展開する必要があることが示唆された。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Study on the Helpfulness of Explainable Artificial Intelligence [0.0]
法律、ビジネス、倫理的要件は、効果的なXAIの使用を動機付けている。
本稿では,ユーザがプロキシタスクをうまく実行する能力を通じて,XAI手法を評価することを提案する。
言い換えれば、人間の意思決定におけるXAIの有用性について論じる。
論文 参考訳(メタデータ) (2024-10-14T14:03:52Z) - Improving Health Professionals' Onboarding with AI and XAI for Trustworthy Human-AI Collaborative Decision Making [3.2381492754749632]
医療・健康を専攻する健康専門家や学生との半構造化面接の結果を報告する。
そこで我々は,脳卒中リハビリテーション評価のためのAIシステムの教材を作成するために,人間とAIのインタラクションガイドラインを構築した。
この結果から,従来のパフォーマンス指標をAIに提示する以外に,参加者はベンチマーク情報を希望していることが判明した。
論文 参考訳(メタデータ) (2024-05-26T04:30:17Z) - How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - Agent Teaming Situation Awareness (ATSA): A Situation Awareness
Framework for Human-AI Teaming [10.712812672157611]
本稿では,主要なSA理論モデルとHAT文脈におけるSAのための新しいフレームワークについてレビューする。
Agent Teaming situation Awareness (ATSA)フレームワークは、人間とAIの振る舞いを統一し、双方向、動的相互作用を含む。
論文 参考訳(メタデータ) (2023-08-31T15:02:01Z) - The Impact of Imperfect XAI on Human-AI Decision-Making [8.305869611846775]
鳥種識別作業において,誤った説明が人間の意思決定行動にどのように影響するかを評価する。
この結果から,AIと人間-AIチームパフォーマンスへの不完全なXAIと,人間の専門知識レベルの影響が明らかになった。
論文 参考訳(メタデータ) (2023-07-25T15:19:36Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Advancing Human-AI Complementarity: The Impact of User Expertise and
Algorithmic Tuning on Joint Decision Making [10.890854857970488]
ユーザのドメイン知識、AIシステムのメンタルモデル、レコメンデーションへの信頼など、多くの要因がヒューマンAIチームの成功に影響を与える可能性がある。
本研究は,非自明な血管ラベル作成作業において,血管が流れているか停止しているかを被験者に示すことを目的とした。
以上の結果から,AI-Assistantからの推薦はユーザの意思決定に役立つが,AIに対するユーザベースラインのパフォーマンスや,AIエラー型の相補的チューニングといった要因は,チーム全体のパフォーマンスに大きな影響を及ぼすことが示された。
論文 参考訳(メタデータ) (2022-08-16T21:39:58Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。