論文の概要: Scale Matters: Attribution Meets the Wavelet Domain to Explain Model
Sensitivity to Image Corruptions
- arxiv url: http://arxiv.org/abs/2305.14979v1
- Date: Wed, 24 May 2023 10:13:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 17:14:41.806459
- Title: Scale Matters: Attribution Meets the Wavelet Domain to Explain Model
Sensitivity to Image Corruptions
- Title(参考訳): スケールの問題:AttributionはWaveletドメインと出会い、画像破壊に対するモデル感度を説明する
- Authors: Gabriel Kasmi and Laurent Dubus and Yves-Marie Saint Drenan and
Philippe Blanc
- Abstract要約: 本稿では,WCAM(Wavelet sCale Attribution Method)を紹介し,画素領域から空間スケール領域への属性の一般化について述べる。
我々は,WCAMが画像の破損下でのモデルの故障を説明し,予測に十分な情報を特定し,ズームインが精度を高める方法を説明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks have shown remarkable performance in computer vision, but
their deployment in real-world scenarios is challenging due to their
sensitivity to image corruptions. Existing attribution methods are
uninformative for explaining the sensitivity to image corruptions, while the
literature on robustness only provides model-based explanations. However, the
ability to scrutinize models' behavior under image corruptions is crucial to
increase the user's trust. Towards this end, we introduce the Wavelet sCale
Attribution Method (WCAM), a generalization of attribution from the pixel
domain to the space-scale domain. Attribution in the space-scale domain reveals
where and on what scales the model focuses. We show that the WCAM explains
models' failures under image corruptions, identifies sufficient information for
prediction, and explains how zoom-in increases accuracy.
- Abstract(参考訳): ニューラルネットワークはコンピュータビジョンにおいて顕著な性能を示しているが、実際のシナリオでの展開は、画像の破損に敏感であるため困難である。
既存の帰属法は画像の腐敗に対する感受性を説明するには役に立たないが、ロバスト性に関する文献はモデルに基づく説明のみを提供する。
しかし、画像の腐敗下でモデルの振る舞いを精査する能力は、ユーザの信頼を高めるために不可欠である。
この目的に向けて、画素領域から空間スケール領域への属性の一般化であるWavelet sCale Attribution Method (WCAM)を導入する。
空間スケール領域における属性は、モデルをどのスケールにフォーカスするか、どこにフォーカスするかを明らかにする。
我々は,WCAMが画像の破損下でのモデルの故障を説明し,予測に十分な情報を特定し,ズームインが精度を高める方法を説明する。
関連論文リスト
- One Wave to Explain Them All: A Unifying Perspective on Post-hoc Explainability [6.151633954305939]
本稿では,ウェーブレット領域を寄与のための堅牢な数学的基礎として活用することを提案する。
我々のアプローチは、既存の勾配に基づく特徴属性をウェーブレット領域に拡張する。
私たちのメソッドが、入力の重要な部分である場所だけでなく、何についてもどのように説明しているかを示します。
論文 参考訳(メタデータ) (2024-10-02T12:34:04Z) - Understanding the Dependence of Perception Model Competency on Regions in an Image [0.10923877073891446]
低モデル能力に寄与する入力画像内の領域を特定する5つの方法を示す。
その結果,低モデル能力に関連する領域を特定する上で,能力勾配と復元損失法が有望であることが判明した。
論文 参考訳(メタデータ) (2024-07-15T08:50:13Z) - Domain Generalization for In-Orbit 6D Pose Estimation [14.624172952608653]
宇宙船のポーズ推定ネットワークのための,エンドツーエンドのニューラルベースアーキテクチャを提案する。
提案手法はドメインギャップを効果的に閉鎖し,SPEED+データセット上で最先端の精度を実現する。
論文 参考訳(メタデータ) (2024-06-17T17:01:20Z) - Domain-Controlled Prompt Learning [49.45309818782329]
既存の素早い学習方法はドメイン認識やドメイン転送機構を欠いていることが多い。
特定のドメインに対するtextbfDomain-Controlled Prompt Learningを提案する。
本手法は,特定の領域画像認識データセットにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-09-30T02:59:49Z) - DARE: Towards Robust Text Explanations in Biomedical and Healthcare
Applications [54.93807822347193]
帰属ロバスト性評価手法を与えられたドメインに適応させ、ドメイン固有の妥当性を考慮する方法を示す。
次に,DAREが特徴とする脆さを軽減するために,対人訓練とFAR訓練の2つの方法を提案する。
最後に,確立した3つのバイオメディカル・ベンチマークを用いて実験を行い,本手法を実証的に検証した。
論文 参考訳(メタデータ) (2023-07-05T08:11:40Z) - Analyzing the Domain Shift Immunity of Deep Homography Estimation [1.4607247979144045]
CNNによるホモグラフィー推定モデルは、ドメインシフトに対する特異な免疫性を示す。
本研究は,ドメインシフトに対する様々な深層ホモグラフィ推定モデルのレジリエンスについて検討する。
論文 参考訳(メタデータ) (2023-04-19T21:28:31Z) - Beyond ImageNet Attack: Towards Crafting Adversarial Examples for
Black-box Domains [80.11169390071869]
敵対的な例は、転送可能な性質のため、ディープニューラルネットワークに深刻な脅威をもたらしている。
ブラックボックス領域への転送可能性を調べるために,Beyond ImageNet Attack (BIA)を提案する。
提案手法は, 最先端手法を最大7.71%(粗粒領域)と25.91%(細粒領域)で平均的に上回っている。
論文 参考訳(メタデータ) (2022-01-27T14:04:27Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z) - CrDoCo: Pixel-level Domain Transfer with Cross-Domain Consistency [119.45667331836583]
教師なしのドメイン適応アルゴリズムは、あるドメインから学んだ知識を別のドメインに転送することを目的としている。
本稿では,新しい画素単位の対向領域適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-09T19:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。