論文の概要: On Two XAI Cultures: A Case Study of Non-technical Explanations in
Deployed AI System
- arxiv url: http://arxiv.org/abs/2112.01016v1
- Date: Thu, 2 Dec 2021 07:02:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 16:44:38.702462
- Title: On Two XAI Cultures: A Case Study of Non-technical Explanations in
Deployed AI System
- Title(参考訳): 2つのXAI文化について:デプロイAIシステムにおける非技術的説明を事例として
- Authors: Helen Jiang, Erwen Senge
- Abstract要約: XAIの多くは、実際にはデプロイされたAIシステムの主要なオーディエンスであり、主要な利害関係者である非AI専門家には理解できない。
我々は,非技術者を対象としたXAI手法の開発が重要であることを主張する。
そして、AIの専門家が非技術ステークホルダーにAI決定の非技術的な説明を提供した、実生活のケーススタディを提示します。
- 参考スコア(独自算出の注目度): 3.4918511133757977
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Explainable AI (XAI) research has been booming, but the question "$\textbf{To
whom}$ are we making AI explainable?" is yet to gain sufficient attention. Not
much of XAI is comprehensible to non-AI experts, who nonetheless, are the
primary audience and major stakeholders of deployed AI systems in practice. The
gap is glaring: what is considered "explained" to AI-experts versus non-experts
are very different in practical scenarios. Hence, this gap produced two
distinct cultures of expectations, goals, and forms of XAI in real-life AI
deployments.
We advocate that it is critical to develop XAI methods for non-technical
audiences. We then present a real-life case study, where AI experts provided
non-technical explanations of AI decisions to non-technical stakeholders, and
completed a successful deployment in a highly regulated industry. We then
synthesize lessons learned from the case, and share a list of suggestions for
AI experts to consider when explaining AI decisions to non-technical
stakeholders.
- Abstract(参考訳): 説明可能なAI(XAI)の研究は盛んに行われているが、"$\textbf{To who}$ are we make AI explainsable?"という疑問はまだ十分に注目されていない。XAIの大部分が、実際にデプロイされたAIシステムの主要なオーディエンスであり、主要な利害関係者である非AI専門家には理解できない。このギャップは、AI専門家と非専門家との"説明"として、現実的なシナリオでは極めて異なる。
そのため、このギャップは、現実のAIデプロイメントにおける期待、目標、XAIの形態の2つの異なる文化を生み出しました。
我々は,非技術者を対象としたXAI手法の開発が重要であることを主張する。
次に、aiの専門家が非技術的なai決定の説明を非技術利害関係者に提供し、高度に規制された業界での展開を成功させた実際のケーススタディを提示します。
そして、このケースから学んだ教訓を合成し、AIの専門家が非技術ステークホルダーにAIの決定を説明する際に考慮すべき提案のリストを共有します。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Dataset | Mindset = Explainable AI | Interpretable AI [36.001670039529586]
機械学習(ML)の出力を支える理由を説明するために、与えられたデータセットにさまざまなXAIツールを適用すると、"説明可能な"人工知能(XAI)と"解釈可能なAI(IAI)"が相反する。
我々は、XAIは、IAIのサブセットであると主張する。IAIの概念はデータセットの範囲を超えており、思考の領域を含んでいる。
我々は、これらの概念を明確にし、将来のAI応用と研究における多くの実践者や政策立案者に対して、XAI、IAI、EAI、TAIの基礎を築いたいと考えています。
論文 参考訳(メタデータ) (2024-08-22T14:12:53Z) - Investigating the Role of Explainability and AI Literacy in User Compliance [2.8623940003518156]
XAIの導入により,ユーザのコンプライアンスが向上する一方で,AIリテラシーの影響も受けていることがわかった。
また,AIリテラシーXAIとユーザのコンプライアンスの関係は,ユーザのメンタルモデルが介在していることも確認した。
論文 参考訳(メタデータ) (2024-06-18T14:28:12Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Designer-User Communication for XAI: An epistemological approach to
discuss XAI design [4.169915659794568]
Signifying Message を概念的なツールとして、XAI シナリオを構造化および議論します。
私たちは、ヘルスケアAIシステムの議論にその使用を実験します。
論文 参考訳(メタデータ) (2021-05-17T13:18:57Z) - The human-AI relationship in decision-making: AI explanation to support
people on justifying their decisions [4.169915659794568]
人々は、AIがどのように機能するか、そしてそのシステムとの関係を構築するために、その成果をもっと意識する必要があります。
意思決定のシナリオでは、人々はAIがどのように機能するか、そしてそのシステムとの関係を構築する結果についてもっと意識する必要があります。
論文 参考訳(メタデータ) (2021-02-10T14:28:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。