論文の概要: Explainability Pitfalls: Beyond Dark Patterns in Explainable AI
- arxiv url: http://arxiv.org/abs/2109.12480v1
- Date: Sun, 26 Sep 2021 03:05:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:22:25.188741
- Title: Explainability Pitfalls: Beyond Dark Patterns in Explainable AI
- Title(参考訳): 説明可能性の落とし穴 - 説明可能なAIのダークパターンを越えて
- Authors: Upol Ehsan, Mark O. Riedl
- Abstract要約: ユーザを操作する意図がない場合でも、AIの説明から予期せぬ負の下流効果を示す説明可能性落とし穴(EP)を導入する。
EPは、意図的に欺くプラクティスであるダークパターンとは異なるが、関連している。
本稿では,3つの相互接続レベルでEPに対処するための予防的および予防的戦略を提案する。
- 参考スコア(独自算出の注目度): 9.020313208419378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To make Explainable AI (XAI) systems trustworthy, understanding harmful
effects is just as important as producing well-designed explanations. In this
paper, we address an important yet unarticulated type of negative effect in
XAI. We introduce explainability pitfalls(EPs), unanticipated negative
downstream effects from AI explanations manifesting even when there is no
intention to manipulate users. EPs are different from, yet related to, dark
patterns, which are intentionally deceptive practices. We articulate the
concept of EPs by demarcating it from dark patterns and highlighting the
challenges arising from uncertainties around pitfalls. We situate and
operationalize the concept using a case study that showcases how, despite best
intentions, unsuspecting negative effects such as unwarranted trust in
numerical explanations can emerge. We propose proactive and preventative
strategies to address EPs at three interconnected levels: research, design, and
organizational.
- Abstract(参考訳): 説明可能なAI(XAI)システムを信頼できるものにするためには、有害な影響を理解することが、十分に設計された説明を生み出すのと同じくらい重要である。
本稿では,XAIにおける重要な負の効果について述べる。
ユーザを操作する意図がない場合でも、AIの説明から予期せぬ負の下流効果を示す説明可能性落とし穴(EP)を導入する。
EPは、意図的に欺くプラクティスであるダークパターンとは異なるが、関連している。
我々は、epsの概念を暗黒パターンと区別し、落とし穴に関する不確実性から生じる課題を強調することで強調する。
我々は、最善意にもかかわらず、数値的な説明に対する不当な信頼などの否定的な影響が如何に現れるかを示すケーススタディを用いて、概念を定式化し、運用する。
我々は,研究,設計,組織という3つの相互接続レベルでepsに対処するための積極的かつ予防的な戦略を提案する。
関連論文リスト
- Don't be Fooled: The Misinformation Effect of Explanations in Human-AI Collaboration [11.824688232910193]
我々は,人間がXAIに支えられたAIによる意思決定について研究している。
その結果,誤った説明が正しいAIアドバイスに付随する場合に誤報が生じることがわかった。
この効果は、人間が欠陥のある推論戦略を推測し、タスクの実行を妨げ、手続き的知識の障害を示す。
論文 参考訳(メタデータ) (2024-09-19T14:34:20Z) - Understanding the Impact of Negative Prompts: When and How Do They Take Effect? [92.53724347718173]
本稿では, 負のプロンプトがどのように作用するか, どのように作用するかを明らかにするための, 初めての総合的研究について述べる。
我々の経験的分析は、負のプロンプトの2つの主要な挙動を識別する。
負のプロンプトは、単純な適応アルゴリズムによって、背景に最小限の変更を加えて、オブジェクトの塗り絵をしやすくする。
論文 参考訳(メタデータ) (2024-06-05T05:42:46Z) - How Well Do Feature-Additive Explainers Explain Feature-Additive
Predictors? [12.993027779814478]
LIME、SHAP、SHAPR、MAPLE、PDPといった人気機能付加型推論器は、機能付加型予測器を説明できるだろうか?
本稿では,モデルの加法構造から解析的に導出される基底真理について,そのような説明を行う。
以上の結果から,全ての説明者が機能の重要性を正しく評価できないことが示唆された。
論文 参考訳(メタデータ) (2023-10-27T21:16:28Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Explanations, Fairness, and Appropriate Reliance in Human-AI Decision-Making [10.049226270783562]
特徴に基づく説明がAIによる意思決定の分配的公平性に及ぼす影響について検討する。
以上の結果から,説明は公正感に影響を及ぼし,人間のAI推奨に固執する傾向に影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2022-09-23T19:10:59Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Towards Relatable Explainable AI with the Perceptual Process [5.581885362337179]
我々は、説明は、他の概念、仮説、および関連性により関連していなければならないと論じる。
認知心理学に触発されて、相対論的説明可能なAIのためのXAI知覚処理フレームワークとRexNetモデルを提案する。
論文 参考訳(メタデータ) (2021-12-28T05:48:53Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。