論文の概要: Explainable GeoAI: Can saliency maps help interpret artificial
intelligence's learning process? An empirical study on natural feature
detection
- arxiv url: http://arxiv.org/abs/2303.09660v1
- Date: Thu, 16 Mar 2023 21:37:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 16:18:01.266716
- Title: Explainable GeoAI: Can saliency maps help interpret artificial
intelligence's learning process? An empirical study on natural feature
detection
- Title(参考訳): 説明可能なGeoAI: 精度マップは人工知能の学習プロセスの解釈に役立つか?
自然特徴検出に関する実証的研究
- Authors: Chia-Yu Hsu and Wenwen Li
- Abstract要約: 本稿では,GeoAIと深層学習モデルの推論行動の解釈において,一般的なサリエンシマップ生成手法とその長所と短所を比較した。
実験では、2つのGeoAI対応データセットを使用して、研究結果の一般化性を実証した。
- 参考スコア(独自算出の注目度): 4.52308938611108
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Improving the interpretability of geospatial artificial intelligence (GeoAI)
models has become critically important to open the "black box" of complex AI
models, such as deep learning. This paper compares popular saliency map
generation techniques and their strengths and weaknesses in interpreting GeoAI
and deep learning models' reasoning behaviors, particularly when applied to
geospatial analysis and image processing tasks. We surveyed two broad classes
of model explanation methods: perturbation-based and gradient-based methods.
The former identifies important image areas, which help machines make
predictions by modifying a localized area of the input image. The latter
evaluates the contribution of every single pixel of the input image to the
model's prediction results through gradient backpropagation. In this study,
three algorithms-the occlusion method, the integrated gradients method, and the
class activation map method-are examined for a natural feature detection task
using deep learning. The algorithms' strengths and weaknesses are discussed,
and the consistency between model-learned and human-understandable concepts for
object recognition is also compared. The experiments used two GeoAI-ready
datasets to demonstrate the generalizability of the research findings.
- Abstract(参考訳): geoai(geospatial artificial intelligence)モデルの解釈性の向上は、ディープラーニングのような複雑なaiモデルの"ブラックボックス"を開く上で非常に重要である。
本稿では,特に地理空間解析や画像処理タスクに応用した場合の,ジオアイと深層学習モデルの推論行動の解釈における,一般的な塩分マップ生成手法と強みと弱みを比較した。
摂動法と勾配法という2種類のモデル説明法について検討した。
前者は、入力画像の局所化領域を変更することで、機械が予測を行うのを助ける重要な画像領域を特定する。
後者は、モデルの予測結果に対する入力画像の各画素の寄与を勾配バックプロパゲーションによって評価する。
本研究では,ディープラーニングを用いた自然特徴検出タスクにおいて,3つのアルゴリズム,オクルージョン法,統合勾配法,クラスアクティベーションマップ法について検討した。
アルゴリズムの長所と短所についても論じ,オブジェクト認識のためのモデル学習概念と人間理解概念の整合性も比較した。
実験では、2つのGeoAI対応データセットを使用して、研究結果の一般化性を実証した。
関連論文リスト
- Underwater Object Detection in the Era of Artificial Intelligence: Current, Challenge, and Future [119.88454942558485]
水中物体検出(UOD)は、水中の画像やビデオ中の物体を識別し、ローカライズすることを目的としている。
近年、人工知能(AI)に基づく手法、特に深層学習法は、UODにおいて有望な性能を示している。
論文 参考訳(メタデータ) (2024-10-08T00:25:33Z) - Underwater SONAR Image Classification and Analysis using LIME-based Explainable Artificial Intelligence [0.0]
本稿では,水中画像分類結果の解釈に,eXplainable Artificial Intelligence (XAI)ツールの適用について検討する。
ベンチマーク畳み込みニューラルネットワーク(CNN)アーキテクチャを用いた画像分類のための転写学習手法の広範な解析を行う。
XAIのテクニックは、結果の解釈可能性をより人間に準拠した方法で強調することで、信頼性と信頼性を高めます。
論文 参考訳(メタデータ) (2024-08-23T04:54:18Z) - Extending CAM-based XAI methods for Remote Sensing Imagery Segmentation [7.735470452949379]
我々は,モデルの不確実性を測定するために,「エントロピー」に基づく新しいXAI評価手法とメトリクスを導入する。
本研究では,Entropyを用いて,対象クラス内の画素のセグメンテーションにおけるモデル不確実性を監視することがより適切であることを示す。
論文 参考訳(メタデータ) (2023-10-03T07:01:23Z) - Assessment of a new GeoAI foundation model for flood inundation mapping [4.312965283062856]
そこで本稿は,IBM-NASAのPrithviによる地空間基盤モデルの性能評価を行い,地空間解析の重要課題である洪水浸水マッピングを支援する。
実験では、ベンチマークデータセットであるSen1Floods11を使用し、モデルの予測可能性、一般化可能性、転送可能性を評価する。
以上の結果から, 未確認領域におけるセグメンテーションにおけるPrithviモデルの性能上の優位性が示された。
論文 参考訳(メタデータ) (2023-09-25T19:50:47Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - Human Attention-Guided Explainable Artificial Intelligence for Computer
Vision Models [38.50257023156464]
我々は,人的注意力の知識を満足度に基づく説明可能なAI(XAI)手法に組み込むことで,その妥当性と忠実性を高めることができるかどうかを検討した。
我々はまず,オブジェクト検出モデルのための勾配に基づく新しいXAI手法を開発し,オブジェクト固有の説明を生成する。
そこで我々は,人間の注意を喚起したXAIを開発し,モデルからの説明情報を最大限に組み合わせて説明の妥当性を高める方法を学んだ。
論文 参考訳(メタデータ) (2023-05-05T15:05:07Z) - Evaluation Challenges for Geospatial ML [5.576083740549639]
地理空間機械学習モデルと地図は、科学と政策の下流分析にますます使われている。
空間機械学習出力の正確な測定方法は議論の的となっている。
本稿では,グローバルあるいはリモートセンシングされたデータセットを用いた地理空間機械学習におけるモデル評価のユニークな課題について述べる。
論文 参考訳(メタデータ) (2023-03-31T14:24:06Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - Neural Topological SLAM for Visual Navigation [112.73876869904]
意味論を生かし、近似幾何学的推論を行う空間のトポロジ的表現を設計する。
本稿では,ノイズのあるアクティベーションの下でそのような表現を構築し,維持し,使用することができる教師付き学習ベースアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2020-05-25T17:56:29Z) - Structured Landmark Detection via Topology-Adapting Deep Graph Learning [75.20602712947016]
解剖学的顔と医学的ランドマーク検出のための新しいトポロジ適応深層グラフ学習手法を提案する。
提案手法は局所像特徴と大域形状特徴の両方を利用するグラフ信号を構成する。
3つの公開顔画像データセット(WFLW、300W、COFW-68)と3つの現実世界のX線医学データセット(ケパロメトリ、ハンド、ペルビス)で実験を行った。
論文 参考訳(メタデータ) (2020-04-17T11:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。