論文の概要: Can Explainable AI Explain Unfairness? A Framework for Evaluating
Explainable AI
- arxiv url: http://arxiv.org/abs/2106.07483v1
- Date: Mon, 14 Jun 2021 15:14:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 21:03:19.147425
- Title: Can Explainable AI Explain Unfairness? A Framework for Evaluating
Explainable AI
- Title(参考訳): 説明可能なAIは不公平を説明できるのか?
説明可能なAIを評価するためのフレームワーク
- Authors: Kiana Alikhademi, Brianna Richardson, Emma Drobina, and Juan E.
Gilbert
- Abstract要約: モデル行動の翻訳におけるXAIツールの強みにもかかわらず、批判はXAIツールがフェアウォッシングツールとしての影響を懸念している。
私たちは、バイアスと公平性の問題を検知し、対処する能力に関して、説明可能なAIツールを評価するためのフレームワークを作成しました。
モデルの振る舞いを単純化し、説明する能力があるにもかかわらず、多くの著名なXAIツールはバイアスを検出するのに重要な機能を欠いていることがわかった。
- 参考スコア(独自算出の注目度): 3.4823710414760516
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Many ML models are opaque to humans, producing decisions too complex for
humans to easily understand. In response, explainable artificial intelligence
(XAI) tools that analyze the inner workings of a model have been created.
Despite these tools' strength in translating model behavior, critiques have
raised concerns about the impact of XAI tools as a tool for `fairwashing` by
misleading users into trusting biased or incorrect models. In this paper, we
created a framework for evaluating explainable AI tools with respect to their
capabilities for detecting and addressing issues of bias and fairness as well
as their capacity to communicate these results to their users clearly. We found
that despite their capabilities in simplifying and explaining model behavior,
many prominent XAI tools lack features that could be critical in detecting
bias. Developers can use our framework to suggest modifications needed in their
toolkits to reduce issues likes fairwashing.
- Abstract(参考訳): 多くのMLモデルは人間には不透明であり、人間が容易に理解するには決定が複雑すぎる。
これに対し、モデルの内部動作を分析する説明可能な人工知能(XAI)ツールが作成されている。
これらのツールがモデルビヘイビアの翻訳に長けているにもかかわらず、批判はXAIツールが「フェアウォッシング」ツールとして影響を与えていることを懸念している。
本稿では、バイアスや公平性の問題を検知し、対処する能力と、これらの結果をユーザに明確に伝える能力に関して、説明可能なAIツールを評価するためのフレームワークを作成しました。
モデルの振る舞いを単純化し、説明する能力があるにもかかわらず、多くの著名なXAIツールはバイアスを検出するのに重要な機能を欠いています。
開発者は私たちのフレームワークを使ってツールキットに必要な修正を提案し、フェアウォッシングのような問題を軽減できます。
関連論文リスト
- Explainable Artificial Intelligence Techniques for Accurate Fault Detection and Diagnosis: A Review [0.0]
この文脈でeXplainable AI(XAI)ツールとテクニックをレビューする。
私たちは、AI決定を透明にする彼らの役割、特に人間が関与する重要なシナリオに重点を置いています。
モデル性能と説明可能性のバランスをとることを目的とした,現在の限界と今後の研究について論じる。
論文 参考訳(メタデータ) (2024-04-17T17:49:38Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Does Your Model Think Like an Engineer? Explainable AI for Bearing Fault
Detection with Deep Learning [20.488966890562004]
本研究では,振動信号から転がり要素軸受の欠陥を検知する作業に焦点をあてる。
本稿では,モデルの基本となる論理が専門家の推論とどの程度うまく対応しているかを評価するための,新しい,ドメイン固有の属性フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-19T17:58:11Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Responsibility: An Example-based Explainable AI approach via Training
Process Inspection [1.4610038284393165]
我々は、特定の決定に対して最も責任あるトレーニング例を特定する新しいXAIアプローチを提案する。
この例は、"これが私が(AI)学んだことであり、それが私をそのようにしました"、という説明として示されます。
以上の結果から,ヒューマンエンドユーザとセカンダリMLモデルの両方において,責任が精度の向上に有効であることが示唆された。
論文 参考訳(メタデータ) (2022-09-07T19:30:01Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - AI Explainability 360: Impact and Design [120.95633114160688]
2019年、私たちはAI Explainability 360(Arya et al. 2020)を開発しました。
本稿では,いくつかのケーススタディ,統計,コミュニティフィードバックを用いて,ツールキットが与える影響について検討する。
また,ツールキットのフレキシブルな設計,使用例,利用者が利用可能な教育資料や資料についても述べる。
論文 参考訳(メタデータ) (2021-09-24T19:17:09Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z) - Deceptive AI Explanations: Creation and Detection [3.197020142231916]
我々は、AIモデルを用いて、偽りの説明を作成し、検出する方法について検討する。
実験的な評価として,GradCAMによるテキスト分類と説明の変更に着目した。
被験者200名を対象に, 偽装説明がユーザに与える影響について検討した。
論文 参考訳(メタデータ) (2020-01-21T16:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。