論文の概要: Evaluating Explainable Artificial Intelligence Methods for Multi-label
Deep Learning Classification Tasks in Remote Sensing
- arxiv url: http://arxiv.org/abs/2104.01375v1
- Date: Sat, 3 Apr 2021 11:13:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 13:15:59.937339
- Title: Evaluating Explainable Artificial Intelligence Methods for Multi-label
Deep Learning Classification Tasks in Remote Sensing
- Title(参考訳): 遠隔センシングにおけるマルチラベルディープラーニング分類タスクのための説明可能な人工知能手法の評価
- Authors: Ioannis Kakogeorgiou and Konstantinos Karantzalos
- Abstract要約: ベンチマークデータセットで最先端のパフォーマンスを持つディープラーニングモデルを開発した。
モデル予測の理解と解釈に10のXAI手法が用いられた。
Occlusion、Grad-CAM、Limeは、最も解釈可能で信頼性の高いXAIメソッドでした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although deep neural networks hold the state-of-the-art in several remote
sensing tasks, their black-box operation hinders the understanding of their
decisions, concealing any bias and other shortcomings in datasets and model
performance. To this end, we have applied explainable artificial intelligence
(XAI) methods in remote sensing multi-label classification tasks towards
producing human-interpretable explanations and improve transparency. In
particular, we developed deep learning models with state-of-the-art performance
in the benchmark BigEarthNet and SEN12MS datasets. Ten XAI methods were
employed towards understanding and interpreting models' predictions, along with
quantitative metrics to assess and compare their performance. Numerous
experiments were performed to assess the overall performance of XAI methods for
straightforward prediction cases, competing multiple labels, as well as
misclassification cases. According to our findings, Occlusion, Grad-CAM and
Lime were the most interpretable and reliable XAI methods. However, none
delivers high-resolution outputs, while apart from Grad-CAM, both Lime and
Occlusion are computationally expensive. We also highlight different aspects of
XAI performance and elaborate with insights on black-box decisions in order to
improve transparency, understand their behavior and reveal, as well, datasets'
particularities.
- Abstract(参考訳): 深層ニューラルネットワークは、いくつかのリモートセンシングタスクにおいて最先端を保っているが、そのブラックボックス操作は、その決定の理解を妨げ、データセットやモデルパフォーマンスにおけるバイアスやその他の欠点を隠蔽する。
この目的のために,遠隔操作型多ラベル分類タスクに説明可能な人工知能(XAI)手法を適用し,人間の解釈可能な説明を作成し,透明性を向上させる。
特に、ベンチマークbigearthnetとsen12msデータセットで最先端のパフォーマンスを持つディープラーニングモデルを開発した。
モデル予測の理解と解釈に10のXAI手法が用いられ,その性能評価と比較のための定量的指標が得られた。
XAI手法の総合的な性能を評価するために,複数ラベルの競合,誤分類など,数多くの実験を行った。
以上より,Occlusion,Grad-CAM,Limeは最も理解し,信頼性の高いXAI法であった。
しかし、Grad-CAMとは別に、LimeとOcclusionはどちらも計算的に高価である。
また、XAIパフォーマンスのさまざまな側面を強調し、透明性を改善し、その振る舞いを理解し、データセットの特異性を明らかにするために、ブラックボックスの決定に関する洞察を精査しています。
関連論文リスト
- Extending CAM-based XAI methods for Remote Sensing Imagery Segmentation [7.735470452949379]
我々は,モデルの不確実性を測定するために,「エントロピー」に基づく新しいXAI評価手法とメトリクスを導入する。
本研究では,Entropyを用いて,対象クラス内の画素のセグメンテーションにおけるモデル不確実性を監視することがより適切であることを示す。
論文 参考訳(メタデータ) (2023-10-03T07:01:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Strategies to exploit XAI to improve classification systems [0.0]
XAIは、AIモデルの意思決定プロセスに関する洞察を提供することを目的としている。
ほとんどのXAI文献は、AIシステムを説明する方法に焦点を当てているが、AIシステムを改善するためにXAIメソッドをどのように活用するかについては、あまり注目されていない。
論文 参考訳(メタデータ) (2023-06-09T10:38:26Z) - Quantitative Analysis of Primary Attribution Explainable Artificial
Intelligence Methods for Remote Sensing Image Classification [0.4532517021515834]
我々は、リモートセンシング画像分類を行うために最先端の機械学習アプローチを活用している。
我々は最も適切なXAI手法を選択するための洞察と勧告を提供する。
論文 参考訳(メタデータ) (2023-06-06T22:04:45Z) - An Experimental Investigation into the Evaluation of Explainability
Methods [60.54170260771932]
この研究は、9つの最先端XAI法と3つのダミー法(例えば、ランダム・サリエンシ・マップ)に適用された14の異なるメトリクスを比較した。
実験の結果、これらの指標のどれが高い相関関係を示し、潜在的な冗長性を示している。
論文 参考訳(メタデータ) (2023-05-25T08:07:07Z) - Better Understanding Differences in Attribution Methods via Systematic
Evaluations [77.1487219861185]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
これらの評価手法を用いて、広範囲のモデルにおいて広く用いられている属性手法の長所と短所について検討する。
論文 参考訳(メタデータ) (2023-03-21T14:24:58Z) - Towards Better Understanding Attribution Methods [77.1487219861185]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
また,いくつかの属性法の性能を著しく向上する処理後平滑化ステップを提案する。
論文 参考訳(メタデータ) (2022-05-20T20:50:17Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Interpretable pipelines with evolutionarily optimized modules for RL
tasks with visual inputs [5.254093731341154]
進化的アルゴリズムを用いて協調最適化された複数の解釈可能なモデルからなるエンドツーエンドパイプラインを提案する。
Atariベンチマークの強化学習環境において,本手法を検証した。
論文 参考訳(メタデータ) (2022-02-10T10:33:44Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Ground Truth Evaluation of Neural Network Explanations with CLEVR-XAI [12.680653816836541]
我々は,CLEVR視覚質問応答タスクに基づくXAI手法の基盤的真理に基づく評価フレームワークを提案する。
本フレームワークは,(1)選択的,(2)制御,(3)リアルなテストベッドをニューラルネットワークの説明評価のために提供する。
論文 参考訳(メタデータ) (2020-03-16T14:43:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。