論文の概要: Towards Explainable Land Cover Mapping: a Counterfactual-based Strategy
- arxiv url: http://arxiv.org/abs/2301.01520v2
- Date: Sun, 20 Aug 2023 20:37:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 01:55:40.175184
- Title: Towards Explainable Land Cover Mapping: a Counterfactual-based Strategy
- Title(参考訳): 説明可能な土地被覆図作成に向けて : 対人的戦略
- Authors: Cassio F. Dantas, Diego Marcos, Dino Ienco
- Abstract要約: 陸域被覆分類タスクのための多クラス設定において,衛星画像時系列に対する生成的逆実逆法を提案する。
提案手法の特徴の1つは、ある対実的説明に対する対象クラスに対する事前仮定の欠如である。
- 参考スコア(独自算出の注目度): 9.180712157534606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counterfactual explanations are an emerging tool to enhance interpretability
of deep learning models. Given a sample, these methods seek to find and display
to the user similar samples across the decision boundary. In this paper, we
propose a generative adversarial counterfactual approach for satellite image
time series in a multi-class setting for the land cover classification task.
One of the distinctive features of the proposed approach is the lack of prior
assumption on the targeted class for a given counterfactual explanation. This
inherent flexibility allows for the discovery of interesting information on the
relationship between land cover classes. The other feature consists of
encouraging the counterfactual to differ from the original sample only in a
small and compact temporal segment. These time-contiguous perturbations allow
for a much sparser and, thus, interpretable solution. Furthermore,
plausibility/realism of the generated counterfactual explanations is enforced
via the proposed adversarial learning strategy.
- Abstract(参考訳): counterfactual descriptionsは、ディープラーニングモデルの解釈性を高めるための新しいツールだ。
サンプルが与えられた場合、これらのメソッドは決定境界を越えて類似したサンプルを見つけて表示しようとする。
本論文では,陸域被覆分類タスクのための多クラス設定において,衛星画像時系列に対する生成的逆実逆法を提案する。
提案手法の特徴の1つは、ある対実的説明に対する対象クラスに対する事前の仮定の欠如である。
この固有の柔軟性は、土地被覆クラス間の関係に関する興味深い情報の発見を可能にする。
もう1つの特徴は、反事実を元のサンプルと違い、小さくてコンパクトな時間的セグメントのみにすることを奨励することである。
これらの時間の連続的な摂動は、多くのスペーサーと解釈可能な解を可能にする。
さらに, 提案した対角的学習戦略を通じて, 生成した対実的説明の妥当性・現実性を検証した。
関連論文リスト
- Rethinking Distance Metrics for Counterfactual Explainability [53.436414009687]
本研究では, 反事実を参照領域から独立して引き出すのではなく, 基礎となるデータ分布からの参照と共同してサンプリングする, 反事実生成手法のフレーミングについて検討する。
我々は、幅広い設定に適用可能な、反ファクト的な類似性のために調整された距離メートル法を導出する。
論文 参考訳(メタデータ) (2024-10-18T15:06:50Z) - Learning Discriminative Spatio-temporal Representations for Semi-supervised Action Recognition [23.44320273156057]
本稿では,適応コントラスト学習(ACL)戦略とマルチスケールテンポラル学習(MTL)戦略を提案する。
ACL戦略は、ラベル付きデータのクラスプロトタイプにより、全ての未ラベルサンプルの信頼性を評価し、擬ラベル付きサンプルバンクから正負のサンプルを適応的に選択し、コントラスト学習を構築する。
MTL戦略は、長期クリップからの情報的意味を強調し、ノイズ情報を抑制しながら、それらを短期クリップに統合する。
論文 参考訳(メタデータ) (2024-04-25T08:49:08Z) - Adversarial Counterfactual Visual Explanations [0.7366405857677227]
本稿では,敵攻撃を意味論的に意味のある摂動に変換するエレガントな手法を提案する。
提案手法は,拡散確率モデルが高周波および分布外摂動を回避するための優れた正則化器であることを仮定する。
論文 参考訳(メタデータ) (2023-03-17T13:34:38Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Counterfactual Explanations via Latent Space Projection and
Interpolation [0.0]
SharpShooterは、ターゲットクラスとして分類する入力の投影バージョンを作成することから始まるバイナリ分類のメソッドである。
次に,本フレームワークは,学習表現を用いて,サンプルのコア特性をその逆ファクトに変換することを示した。
論文 参考訳(メタデータ) (2021-12-02T00:07:49Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - A Low Rank Promoting Prior for Unsupervised Contrastive Learning [108.91406719395417]
提案手法は,従来の低階の促進をコントラスト学習の枠組みに効果的に組み込む新しい確率的グラフィカルモデルを構築する。
我々の仮説は、同じインスタンスクラスに属するすべてのサンプルが、小さな次元の同じ部分空間上にあることを明示的に要求する。
実証的な証拠は、提案アルゴリズムが複数のベンチマークにおける最先端のアプローチを明らかに上回っていることを示している。
論文 参考訳(メタデータ) (2021-08-05T15:58:25Z) - Where and What? Examining Interpretable Disentangled Representations [96.32813624341833]
解釈可能なバリエーションの獲得は、長い間、絡み合い学習の目標の1つだった。
独立性の仮定と異なり、解釈性は教師なしの設定での絡み合いを促進するために使われることは滅多にない。
本論文では, 解釈対象と解釈対象の2つの質問について検討し, 離散表現の解釈可能性を検討する。
論文 参考訳(メタデータ) (2021-04-07T11:22:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。