論文の概要: Opening the Black-Box: A Systematic Review on Explainable AI in Remote
Sensing
- arxiv url: http://arxiv.org/abs/2402.13791v1
- Date: Wed, 21 Feb 2024 13:19:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 15:18:50.215259
- Title: Opening the Black-Box: A Systematic Review on Explainable AI in Remote
Sensing
- Title(参考訳): Black-Box: リモートセンシングにおける説明可能なAIのシステムレビュー
- Authors: Adrian H\"ohl, Ivica Obadic, Miguel \'Angel Fern\'andez Torres, Hiba
Najjar, Dario Oliveira, Zeynep Akata, Andreas Dengel, Xiao Xiang Zhu
- Abstract要約: ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出のための主要なモデリングパラダイムとなっている。
我々は、リモートセンシングにおいて、説明可能なAIがどのように使われているかを示す重要なトレンドを特定するために、体系的なレビューを行う。
私たちは、新しい説明可能なAIアプローチと、特定のリモートセンシング課題に対処する新たな方向性に光を当てました。
- 参考スコア(独自算出の注目度): 52.110707276938
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, black-box machine learning approaches have become a dominant
modeling paradigm for knowledge extraction in Remote Sensing. Despite the
potential benefits of uncovering the inner workings of these models with
explainable AI, a comprehensive overview summarizing the used explainable AI
methods and their objectives, findings, and challenges in Remote Sensing
applications is still missing. In this paper, we address this issue by
performing a systematic review to identify the key trends of how explainable AI
is used in Remote Sensing and shed light on novel explainable AI approaches and
emerging directions that tackle specific Remote Sensing challenges. We also
reveal the common patterns of explanation interpretation, discuss the extracted
scientific insights in Remote Sensing, and reflect on the approaches used for
explainable AI methods evaluation. Our review provides a complete summary of
the state-of-the-art in the field. Further, we give a detailed outlook on the
challenges and promising research directions, representing a basis for novel
methodological development and a useful starting point for new researchers in
the field of explainable AI in Remote Sensing.
- Abstract(参考訳): 近年,遠隔センシングにおける知識抽出のモデルパラダイムとして,ブラックボックス機械学習が主流となっている。
これらのモデルの内部動作を説明可能なAIで明らかにする潜在的なメリットにもかかわらず、使用済みのAIメソッドとその目的、発見、そしてリモートセンシングアプリケーションの課題を要約する包括的な概要は、いまだに欠落している。
本稿では,リモートセンシングにおいて説明可能なaiがどのように使われているのかを体系的に検討し,新しい説明可能なaiアプローチと,特定のリモートセンシング課題に取り組む新たな方向について考察する。
また、解釈の共通パターンを明らかにし、リモートセンシングにおける科学的知見を抽出し、説明可能なAI手法の評価に用いるアプローチを考察する。
我々のレビューは、この分野における最先端の完全な概要を提供する。
さらに,新しい方法論開発の基礎と,遠隔センシングにおける説明可能なAI分野の新たな研究者にとって有用な出発点として,課題と期待できる研究方向性について,より詳細な展望を述べる。
関連論文リスト
- Representation Engineering: A Top-Down Approach to AI Transparency [132.0398250233924]
表現工学の新たな領域(RepE)を特定し,特徴付ける
RepEは、神経細胞や回路ではなく、人口レベルの表現を解析の中心に置く。
これらの手法が、広範囲の安全関連問題に対してどのようにトラクションを提供するかを紹介する。
論文 参考訳(メタデータ) (2023-10-02T17:59:07Z) - Remote Sensing Object Detection Meets Deep Learning: A Meta-review of
Challenges and Advances [51.70835702029498]
本稿では,ディープラーニングに基づくRSOD手法の最近の成果を概観する。
RSODの主な課題として,マルチスケールオブジェクト検出,回転オブジェクト検出,弱いオブジェクト検出,小さなオブジェクト検出,限られた監視を伴うオブジェクト検出の5つを挙げる。
また、RSODの分野で広く使用されているベンチマークデータセットと評価指標、およびRSODのアプリケーションシナリオについてもレビューする。
論文 参考訳(メタデータ) (2023-09-13T06:48:32Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - A Critical Review of Inductive Logic Programming Techniques for
Explainable AI [9.028858411921906]
インダクティブ論理プログラミング(英: Inductive Logic Programming、ILP)は、人工知能のサブフィールドである。
ILPは、例と背景知識から説明可能な一階クラッサル理論を生成する。
既存のILPシステムは、しばしば広大な解空間を持ち、誘導された解はノイズや乱れに非常に敏感である。
論文 参考訳(メタデータ) (2021-12-31T06:34:32Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Opportunities and Challenges in Explainable Artificial Intelligence
(XAI): A Survey [2.7086321720578623]
深層ニューラルネットワークのブラックボックスの性質は、ミッションクリティカルなアプリケーションでの利用に挑戦する。
XAIは、AI決定に関する高品質な解釈可能、直感的、人間に理解可能な説明を生成するためのツール、テクニック、アルゴリズムのセットを推進している。
論文 参考訳(メタデータ) (2020-06-16T02:58:10Z) - Explainable Artificial Intelligence: a Systematic Review [2.741266294612776]
機械学習は、非常に正確なモデルの開発につながったが、説明可能性や解釈可能性に欠けていた。
この問題に対処するための多くの手法が提案され、開発され、テストされている。
この体系的なレビューは、これらの手法を階層的な分類システムでクラスタリングすることで、知識の体系に寄与する。
論文 参考訳(メタデータ) (2020-05-29T21:41:12Z) - Explaining Deep Neural Networks and Beyond: A Review of Methods and
Applications [12.239046765871109]
非線形機械学習の問題解決能力と戦略をよりよく理解するための解釈可能性と説明法が注目されている。
我々は、この活発な新興分野のタイムリーな概要を「ポストホック」の説明に焦点をあて、その理論的基礎を説明する。
機械学習のこのエキサイティングな基礎分野の課題と今後の方向性について論じる。
論文 参考訳(メタデータ) (2020-03-17T10:45:51Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。