論文の概要: Seamful XAI: Operationalizing Seamful Design in Explainable AI
- arxiv url: http://arxiv.org/abs/2211.06753v1
- Date: Sat, 12 Nov 2022 21:54:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 19:26:09.989949
- Title: Seamful XAI: Operationalizing Seamful Design in Explainable AI
- Title(参考訳): Seamful XAI: 説明可能なAIでSeamfulデザインを運用
- Authors: Upol Ehsan, Q. Vera Liao, Samir Passi, Mark O. Riedl, Hal Daume III
- Abstract要約: AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
ブラックボックスのAIシステムは、ユーザー体験をシームレスにすることができるが、シームを隠蔽することで、AIのミスからフォールアウトを軽減できる。
本研究では,社会工学的・インフラ的ミスマッチを戦略的に明らかにすることにより,人中心型XAIを育むことができることを提案する。
- 参考スコア(独自算出の注目度): 37.78559810830256
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Mistakes in AI systems are inevitable, arising from both technical
limitations and sociotechnical gaps. While black-boxing AI systems can make the
user experience seamless, hiding the seams risks disempowering users to
mitigate fallouts from AI mistakes. While Explainable AI (XAI) has
predominantly tackled algorithmic opaqueness, we propose that seamful design
can foster Humancentered XAI by strategically revealing sociotechnical and
infrastructural mismatches. We introduce the notion of Seamful XAI by (1)
conceptually transferring "seams" to the AI context and (2) developing a design
process that helps stakeholders design with seams, thereby augmenting
explainability and user agency. We explore this process with 43 AI
practitioners and users, using a scenario-based co-design activity informed by
real-world use cases. We share empirical insights, implications, and critical
reflections on how this process can help practitioners anticipate and craft
seams in AI, how seamfulness can improve explainability, empower end-users, and
facilitate Responsible AI.
- Abstract(参考訳): AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
ブラックボックスのAIシステムは、ユーザー体験をシームレスにすることができるが、シームを隠蔽することで、AIのミスからフォールアウトを軽減できる。
説明可能なAI(XAI)はアルゴリズムの不透明性に主に取り組んだが、シームフルデザインは社会技術やインフラのミスマッチを戦略的に明らかにすることで人間中心のXAIを育むことができると提案する。
本稿では,(1)「シーム」をaiコンテキストに概念的に移行し,(2)利害関係者がシームでデザインすることを支援するデザインプロセスを開発することにより,説明可能性とユーザエージェンシーを高めることにより,シームフルxaiの概念を紹介する。
現実のユースケースから情報を得たシナリオベースの共同設計活動を用いて、43人のAI実践者とユーザによるこのプロセスについて検討する。
私たちは、このプロセスが実践者がAIでシームを予測し、作り出すのにどのように役立つか、Seamfulnessが説明可能性を改善し、エンドユーザに力を与え、Responsible AIを促進するかについて、経験的な洞察、含意、批判的な考察を共有します。
関連論文リスト
- Investigating the Role of Explainability and AI Literacy in User Compliance [2.8623940003518156]
XAIの導入により,ユーザのコンプライアンスが向上する一方で,AIリテラシーの影響も受けていることがわかった。
また,AIリテラシーXAIとユーザのコンプライアンスの関係は,ユーザのメンタルモデルが介在していることも確認した。
論文 参考訳(メタデータ) (2024-06-18T14:28:12Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Transcending XAI Algorithm Boundaries through End-User-Inspired Design [27.864338632191608]
エンドユーザに対する説明責任重視の機能サポートの欠如は、高度なドメインにおけるAIの安全で責任ある使用を妨げる可能性がある。
我々の研究は、エンドユーザーがXAIを使用する際の技術的な問題を根底から解決することで、新たな研究課題がもたらされることを示している。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
論文 参考訳(メタデータ) (2022-08-18T09:44:51Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - On Two XAI Cultures: A Case Study of Non-technical Explanations in
Deployed AI System [3.4918511133757977]
XAIの多くは、実際にはデプロイされたAIシステムの主要なオーディエンスであり、主要な利害関係者である非AI専門家には理解できない。
我々は,非技術者を対象としたXAI手法の開発が重要であることを主張する。
そして、AIの専門家が非技術ステークホルダーにAI決定の非技術的な説明を提供した、実生活のケーススタディを提示します。
論文 参考訳(メタデータ) (2021-12-02T07:02:27Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Questioning the AI: Informing Design Practices for Explainable AI User
Experiences [33.81809180549226]
説明可能なAI(XAI)への関心の高まりは、このトピックに関する膨大なアルゴリズム作業の収集につながった。
私たちは、説明可能なAI製品を作成するための現在のXAIアルゴリズム作業とプラクティスのギャップを特定しようとしています。
我々は,ユーザが説明責任を表現できるXAI質問バンクを開発した。
論文 参考訳(メタデータ) (2020-01-08T12:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。