論文の概要: Manifold-based Shapley for SAR Recognization Network Explanation
- arxiv url: http://arxiv.org/abs/2401.03128v1
- Date: Sat, 6 Jan 2024 05:26:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 20:22:03.849145
- Title: Manifold-based Shapley for SAR Recognization Network Explanation
- Title(参考訳): SAR認識ネットワーク記述のためのマニフォールド型シェープ
- Authors: Xuran Hu, Mingzhe Zhu, Yuanjing Liu, Zhenpeng Feng and LJubisa
Stankovic
- Abstract要約: 本研究では,高次元特徴量から低次元多様体特徴量への射影によるShapley法を提案する。
本研究の目的は,(1)従来のシャップが遭遇した誤った説明の問題に対処すること,(2)複雑なシナリオにおいて従来のシャップが直面する解釈可能性の課題を解決することである。
- 参考スコア(独自算出の注目度): 5.346944850064553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable artificial intelligence (XAI) holds immense significance in
enhancing the deep neural network's transparency and credibility, particularly
in some risky and high-cost scenarios, like synthetic aperture radar (SAR).
Shapley is a game-based explanation technique with robust mathematical
foundations. However, Shapley assumes that model's features are independent,
rendering Shapley explanation invalid for high dimensional models. This study
introduces a manifold-based Shapley method by projecting high-dimensional
features into low-dimensional manifold features and subsequently obtaining
Fusion-Shap, which aims at (1) addressing the issue of erroneous explanations
encountered by traditional Shap; (2) resolving the challenge of
interpretability that traditional Shap faces in complex scenarios.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、ディープニューラルネットワークの透明性と信頼性を高める上で、特に合成開口レーダー(SAR)のようなリスクの高い高コストシナリオにおいて、大きな重要性を持っている。
Shapleyは、堅牢な数学的基礎を持つゲームベースの説明技法である。
しかし、Shapleyはモデルの特徴が独立であると仮定し、Shapleyの説明は高次元モデルでは無効である。
本研究では,高次元特徴を低次元多様体の特徴に射影し,(1)従来のシャップが遭遇した誤った説明の問題に対処することを目的としたFusion-Shapを得る手法を提案する。
関連論文リスト
- Feature Inference Attack on Shapley Values [23.046714679720292]
特徴推論攻撃を用いたShapley値に基づくモデル解釈可能性手法のプライバシーリスクについて検討する。
私たちは、主要な機械学習プラットフォーム、すなわちGoogle Cloud、Microsoft Azure、IBM aix360に対する提案された攻撃を実行します。
論文 参考訳(メタデータ) (2024-07-16T03:50:06Z) - ShapG: new feature importance method based on the Shapley value [3.411077163447709]
特徴量を測定するために,ShapG (Shapley value for Graphs) と呼ばれる新しい説明可能な人工知能 (XAI) 手法を提案する。
最初の段階では、データセットに基づいて、ノードが機能を表し、エッジが追加される非指向グラフを定義する。
第2段階では、このグラフ構造を考慮したデータをサンプリングすることにより、近似されたシェープ値を算出する。
論文 参考訳(メタデータ) (2024-06-29T18:19:55Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value [86.69600830581912]
クラスアクティベーションマッピングに基づくShap-CAMと呼ばれる新しい視覚的説明法を開発した。
我々は,Shap-CAMが意思決定プロセスの解釈において,より良い視覚的性能と公平性を実現することを実証した。
論文 参考訳(メタデータ) (2022-08-07T00:59:23Z) - Fast Hierarchical Games for Image Explanations [78.16853337149871]
本稿では,シェープリー係数の階層的拡張に基づく画像分類のモデル非依存な説明法を提案する。
他のShapleyベースの説明手法とは異なり、h-Shapはスケーラブルで近似を必要とせずに計算できる。
本手法は,合成データセット,医用画像シナリオ,一般コンピュータビジョン問題において,一般的なシャプリーベースおよび非サプリーベース手法と比較した。
論文 参考訳(メタデータ) (2021-04-13T13:11:02Z) - Shapley Explanation Networks [19.89293579058277]
深層モデルにShapley値そのものを潜在表現として組み込むことを提案する。
Shapley変換をニューラルネットワークモジュールとして運用し、ShapNetsと呼ばれる浅いネットワークと深いネットワークの両方を構築する。
Shallow ShapNetsはShapley値の正確な計算を行い、Deep ShapNetsはShapley値の欠如と正確性を維持します。
論文 参考訳(メタデータ) (2021-04-06T05:42:12Z) - Secrets of 3D Implicit Object Shape Reconstruction in the Wild [92.5554695397653]
コンピュータビジョン、ロボティクス、グラフィックスの様々な用途において、高精細な3Dオブジェクトをスパースから再構築することは重要です。
最近の神経暗黙的モデリング法は、合成データセットまたは高密度データセットで有望な結果を示す。
しかし、粗末でノイズの多い実世界のデータではパフォーマンスが悪い。
本論文では, 一般的な神経暗黙モデルの性能低下の根本原因を解析する。
論文 参考訳(メタデータ) (2021-01-18T03:24:48Z) - Interpretable Detail-Fidelity Attention Network for Single Image
Super-Resolution [89.1947690981471]
本研究では,スムースとディテールを段階的に分割・収束的に処理する,目的・解釈可能なディテール・ファイダリティ・アテンション・ネットワークを提案する。
特に,詳細推論において顕著な解釈可能な特徴表現のためのヘシアンフィルタを提案する。
実験により,提案手法は最先端手法よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2020-09-28T08:31:23Z) - Shapley explainability on the data manifold [10.439136407307048]
Shapleyの説明可能性の一般的な実装は、モデルの特徴が非相関である、という断定不能な仮定を下している。
生成的モデリングに基づく1つのソリューションは、データ計算への柔軟なアクセスを提供する。
もうひとつはShapleyの価値関数を直接学習し、柔軟性を犠牲にしてパフォーマンスと安定性を提供します。
論文 参考訳(メタデータ) (2020-06-01T21:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。