論文の概要: Solving the enigma: Deriving optimal explanations of deep networks
- arxiv url: http://arxiv.org/abs/2405.10008v1
- Date: Thu, 16 May 2024 11:49:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-17 14:31:57.675291
- Title: Solving the enigma: Deriving optimal explanations of deep networks
- Title(参考訳): エニグマの解法:ディープネットワークの最適説明の導出
- Authors: Michail Mamalakis, Antonios Mamalakis, Ingrid Agartz, Lynn Egeland Mørch-Johnsen, Graham Murray, John Suckling, Pietro Lio,
- Abstract要約: 本稿では,ディープネットワークの説明可能性を高めるための新しいフレームワークを提案する。
本フレームワークは,確立したXAI手法の様々な説明を統合し,非説明を用いて最適な説明を構築する。
以上の結果から,特定基準に基づく最適説明が導出可能であることが示唆された。
- 参考スコア(独自算出の注目度): 3.9584068556746246
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The accelerated progress of artificial intelligence (AI) has popularized deep learning models across domains, yet their inherent opacity poses challenges, notably in critical fields like healthcare, medicine and the geosciences. Explainable AI (XAI) has emerged to shed light on these "black box" models, helping decipher their decision making process. Nevertheless, different XAI methods yield highly different explanations. This inter-method variability increases uncertainty and lowers trust in deep networks' predictions. In this study, for the first time, we propose a novel framework designed to enhance the explainability of deep networks, by maximizing both the accuracy and the comprehensibility of the explanations. Our framework integrates various explanations from established XAI methods and employs a non-linear "explanation optimizer" to construct a unique and optimal explanation. Through experiments on multi-class and binary classification tasks in 2D object and 3D neuroscience imaging, we validate the efficacy of our approach. Our explanation optimizer achieved superior faithfulness scores, averaging 155% and 63% higher than the best performing XAI method in the 3D and 2D applications, respectively. Additionally, our approach yielded lower complexity, increasing comprehensibility. Our results suggest that optimal explanations based on specific criteria are derivable and address the issue of inter-method variability in the current XAI literature.
- Abstract(参考訳): 人工知能(AI)の急速な進歩は、ドメイン間でディープラーニングモデルを普及させたが、その固有の不透明さは、特に医療、医学、地球科学といった重要な分野において、課題を引き起こしている。
説明可能なAI(XAI)は、これらの“ブラックボックス”モデルに光を当てて、意思決定プロセスの解読を支援している。
しかしながら、異なるXAI法は、非常に異なる説明をもたらす。
このメソッド間の変動は不確実性を高め、ディープネットワークの予測に対する信頼を低下させる。
本研究では,提案手法の精度と説明の理解性の両方を最大化することにより,深層ネットワークの説明可能性を高める新しい枠組みを提案する。
本フレームワークは,確立されたXAI手法の様々な説明を統合し,非線形な「説明最適化」を用いて,一意かつ最適な説明を構築する。
2次元オブジェクトと3次元神経科学イメージングにおける多クラス・バイナリ分類タスクの実験を通じて,本手法の有効性を検証した。
提案手法は, 3Dおよび2Dアプリケーションにおいて, XAI法の平均値は平均155%, 63%であった。
さらに、我々のアプローチは複雑さを減らし、理解力を高めました。
本稿は,特定の基準に基づく最適説明が導出可能であることを示唆し,現在のXAI文献におけるメソッド間変動の問題に対処するものである。
関連論文リスト
- Gradient based Feature Attribution in Explainable AI: A Technical Review [13.848675695545909]
ブラックボックスAIモデルの急増は、内部メカニズムを説明し、信頼性を正当化する必要性を喚起している。
勾配に基づく説明は、ニューラルネットワークモデルに直接適用することができる。
アルゴリズムの性能を測定するために,人的評価と定量的評価の両方を導入する。
論文 参考訳(メタデータ) (2024-03-15T15:49:31Z) - XAI-TRIS: Non-linear image benchmarks to quantify false positive
post-hoc attribution of feature importance [1.3958169829527285]
形式的な基盤の欠如は、与えられた XAI 法の結果からどの結論を安全に導き出すことができるのかがはっきりしない。
これは、一般的にディープニューラルネットワークによって解決される非線形問題に挑戦するが、現在は適切な治療法が欠如していることを意味する。
我々は,一般的なXAI手法が,ランダムな性能基準やエッジ検出方法よりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2023-06-22T11:31:11Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - Towards Better Explanations for Object Detection [0.0]
本稿では,D-CLOSEと呼ばれるオブジェクト検出モデルについて,その決定を説明する手法を提案する。
我々は,YOLOXモデルを用いてMS-COCOデータセットの試験を行い,本手法がD-RISEより優れていることを示す。
論文 参考訳(メタデータ) (2023-06-05T09:52:05Z) - Deep learning applied to computational mechanics: A comprehensive
review, state of the art, and the classics [77.34726150561087]
人工知能,特に深層学習(DL)の最近の進歩を概観する。
ハイブリッドおよび純粋機械学習(ML)の手法について論じる。
AIの歴史と限界は、特に古典の誤解や誤解を指摘し、議論され、議論される。
論文 参考訳(メタデータ) (2022-12-18T02:03:00Z) - INTERACTION: A Generative XAI Framework for Natural Language Inference
Explanations [58.062003028768636]
現在のXAIアプローチは、ひとつの説明を提供することにのみ焦点をあてています。
本稿では、生成型XAIフレームワーク、InterACTION(explaIn aNd predicT thEn queRy with contextuAl CondiTional variational autO-eNcoder)を提案する。
提案するフレームワークは,説明とラベル予測の2つのステップ,および(ステップ2)異種証拠生成の2つのステップで説明を行う。
論文 参考訳(メタデータ) (2022-09-02T13:52:39Z) - Quality Diversity Evolutionary Learning of Decision Trees [4.447467536572625]
MAP-Elitesは, モデル複雑性と振る舞いの多様性の両方を捉えた特徴空間上で, ハイブリッドモデルを多様化することができることを示す。
本手法をOpenAI Gymライブラリの2つのよく知られた制御問題に適用し,MAP-Elitesが提案する「照明」パターンについて議論する。
論文 参考訳(メタデータ) (2022-08-17T13:57:32Z) - Model-Based Deep Learning: On the Intersection of Deep Learning and
Optimization [101.32332941117271]
決定アルゴリズムは様々なアプリケーションで使われている。
数理モデルに頼らずにデータから調整された高度パラメトリックアーキテクチャを使用するディープラーニングアプローチが、ますます人気が高まっている。
モデルに基づく最適化とデータ中心のディープラーニングは、しばしば異なる規律とみなされる。
論文 参考訳(メタデータ) (2022-05-05T13:40:08Z) - Evaluating Explainable Artificial Intelligence Methods for Multi-label
Deep Learning Classification Tasks in Remote Sensing [0.0]
ベンチマークデータセットで最先端のパフォーマンスを持つディープラーニングモデルを開発した。
モデル予測の理解と解釈に10のXAI手法が用いられた。
Occlusion、Grad-CAM、Limeは、最も解釈可能で信頼性の高いXAIメソッドでした。
論文 参考訳(メタデータ) (2021-04-03T11:13:14Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。