論文の概要: Introducing and assessing the explainable AI (XAI)method: SIDU
- arxiv url: http://arxiv.org/abs/2101.10710v1
- Date: Tue, 26 Jan 2021 11:13:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 20:06:29.198666
- Title: Introducing and assessing the explainable AI (XAI)method: SIDU
- Title(参考訳): 説明可能なAI(XAI)メソッドの紹介と評価:SIDU
- Authors: Satya M. Muddamsetty, Mohammad N. S. Jahromi, Andreea E. Ciontos,
Laura M. Fenoy, Thomas B. Moeslund
- Abstract要約: 本稿では,オブジェクト領域全体を効果的にローカライズできる新しいxaiビジュアル説明アルゴリズムsiduを提案する。
様々な計算および人体実験を通して,その頑健性と有効性を分析した。
- 参考スコア(独自算出の注目度): 17.127282412294335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable Artificial Intelligence (XAI) has in recent years become a
well-suited framework to generate human understandable explanations of black
box models. In this paper, we present a novel XAI visual explanation algorithm
denoted SIDU that can effectively localize entire object regions responsible
for prediction in a full extend. We analyze its robustness and effectiveness
through various computational and human subject experiments. In particular, we
assess the SIDU algorithm using three different types of evaluations
(Application, Human and Functionally-Grounded) to demonstrate its superior
performance. The robustness of SIDU is further studied in presence of
adversarial attack on black box models to better understand its performance.
- Abstract(参考訳): 説明可能な人工知能(XAI)は近年、ブラックボックスモデルの人間の理解可能な説明を生成するのに適したフレームワークとなっている。
本論文では,予測に責任を持つ全対象領域を効率的にローカライズすることのできる,新しいXAI視覚的説明アルゴリズムSIDUを提案する。
様々な計算および人体実験を通して,その頑健性と有効性を分析した。
特に,3種類の評価(応用,人間および機能的接地)を用いてsiduアルゴリズムを評価し,その優れた性能を示す。
SIDUのロバスト性は、ブラックボックスモデルに対する敵攻撃の存在下でさらに研究され、その性能がよりよく理解される。
関連論文リスト
- SIDU-TXT: An XAI Algorithm for NLP with a Holistic Assessment Approach [14.928572140620245]
画像に基づく分類において、正統領域全体を局所化する能力に優れる「相似性差と特異性」(SIDU)XAI法をテキストデータに拡張する。
拡張されたSIDU-TXTは、ブラックボックスモデルから特徴活性化マップを使用して、粒度の細かい単語ベースのヒートマップを生成する。
映画レビューデータセットの感情分析タスクにおいて,SIDU-TXTは機能的評価と人為的評価の両方において優れていることがわかった。
論文 参考訳(メタデータ) (2024-02-05T14:29:54Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - A Comparative Approach to Explainable Artificial Intelligence Methods in
Application to High-Dimensional Electronic Health Records: Examining the
Usability of XAI [0.0]
XAIは、コミュニケーション手段によって人間に達成される信頼の実証的要因を生み出すことを目的としている。
機械を信頼して人間の生き方に向くというイデオロギーは倫理的な混乱を引き起こします。
XAIメソッドは、ローカルレベルとグローバルレベルの両方で出力される特定のモデルに対する機能貢献を視覚化します。
論文 参考訳(メタデータ) (2021-03-08T18:15:52Z) - VitrAI -- Applying Explainable AI in the Real World [0.0]
VitrAIは、3つの実生活シナリオの文脈で4つの異なるXAIアルゴリズムを均一に実証することを目的としているWebベースのサービスです。
この研究は、XAIメソッドを採用する際の現実的な障害を明らかにし、上記のシナリオでどのように異なるアプローチがうまく機能するかを定性的に見積もる。
論文 参考訳(メタデータ) (2021-02-12T13:44:39Z) - Why model why? Assessing the strengths and limitations of LIME [0.0]
本稿では,LIME(Local Interpretable Model-Agnostic Explanations) xAIフレームワークの有効性について検討する。
LIMEは、文献で見られる最も人気のあるモデルに依存しないフレームワークの1つである。
従来の性能評価手法を補うためにLIMEをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2020-11-30T21:08:07Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Opportunities and Challenges in Explainable Artificial Intelligence
(XAI): A Survey [2.7086321720578623]
深層ニューラルネットワークのブラックボックスの性質は、ミッションクリティカルなアプリケーションでの利用に挑戦する。
XAIは、AI決定に関する高品質な解釈可能、直感的、人間に理解可能な説明を生成するためのツール、テクニック、アルゴリズムのセットを推進している。
論文 参考訳(メタデータ) (2020-06-16T02:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。