論文の概要: Pixel-level Certified Explanations via Randomized Smoothing
- arxiv url: http://arxiv.org/abs/2506.15499v1
- Date: Wed, 18 Jun 2025 14:41:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.693959
- Title: Pixel-level Certified Explanations via Randomized Smoothing
- Title(参考訳): ランダム化平滑化による画素レベルの認証説明
- Authors: Alaa Anani, Tobias Lorenz, Mario Fritz, Bernt Schiele,
- Abstract要約: ポストホック属性法は, 入力画素を強調することにより, 深層学習の予測を説明することを目的としている。
小さい、知覚不能な入力摂動は、同じ予測を維持しながら、属性マップを劇的に変更することができる。
ブラックボックス属性法における画素レベルのロバスト性を保証する最初の認証フレームワークを提案する。
- 参考スコア(独自算出の注目度): 87.48628403354351
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Post-hoc attribution methods aim to explain deep learning predictions by highlighting influential input pixels. However, these explanations are highly non-robust: small, imperceptible input perturbations can drastically alter the attribution map while maintaining the same prediction. This vulnerability undermines their trustworthiness and calls for rigorous robustness guarantees of pixel-level attribution scores. We introduce the first certification framework that guarantees pixel-level robustness for any black-box attribution method using randomized smoothing. By sparsifying and smoothing attribution maps, we reformulate the task as a segmentation problem and certify each pixel's importance against $\ell_2$-bounded perturbations. We further propose three evaluation metrics to assess certified robustness, localization, and faithfulness. An extensive evaluation of 12 attribution methods across 5 ImageNet models shows that our certified attributions are robust, interpretable, and faithful, enabling reliable use in downstream tasks. Our code is at https://github.com/AlaaAnani/certified-attributions.
- Abstract(参考訳): ポストホック属性法は, 入力画素を強調することにより, 深層学習の予測を説明することを目的としている。
しかし、これらの説明は非常に非破壊的であり、小さな、知覚不能な入力摂動は、同じ予測を維持しながら、帰属マップを劇的に変更することができる。
この脆弱性は、その信頼性を損なうものであり、画素レベルの属性スコアの厳格な堅牢性を保証することを要求する。
ランダムな平滑化を用いたブラックボックス属性法において,画素レベルのロバスト性を保証する最初の認証フレームワークを提案する。
帰属写像のスムーズ化とスムーズ化により,各画素が$\ell_2$-bounded 摂動に対して重要であることを示すセグメンテーション問題としてタスクを再構成する。
さらに,認証されたロバスト性,ローカライゼーション,忠実度を評価するための3つの評価指標を提案する。
5つのImageNetモデルにまたがる12の属性手法の広範な評価は、我々の認定属性が堅牢で、解釈可能で、忠実であり、下流タスクにおける信頼性の高い使用を可能にすることを示している。
私たちのコードはhttps://github.com/AlaaAnani/certified-attributionsにあります。
関連論文リスト
- Certifying Robustness of Learning-Based Keypoint Detection and Pose Estimation Methods [9.953693315812995]
この研究は、視覚に基づく2段階の6次元オブジェクトポーズ推定の堅牢性の証明に対処する。
中心となる考え方は、ローカルロバストネスの認定を、分類タスクのニューラルネットワーク検証に変換することである。
論文 参考訳(メタデータ) (2024-07-31T19:02:54Z) - Trust, but Verify: Robust Image Segmentation using Deep Learning [7.220625464268644]
医用画像分割のためのディープニューラルネットワークの出力を検証する手法について述べる。
より深いニューラルレグレッションネットワークを用いた従来のセグメンテーション評価手法は偽陰性に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-10-25T20:55:07Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - The Treasure Beneath Multiple Annotations: An Uncertainty-aware Edge
Detector [70.43599299422813]
既存のメソッドは、単純な投票プロセスを使用して複数のアノテーションを融合し、エッジ固有の曖昧さを無視し、アノテータのラベル付けバイアスを無視する。
多様なアノテーションの主観性とあいまいさを調査するために不確実性を利用した新しい不確実性認識エッジ検出器(UAED)を提案する。
UAEDは複数のエッジ検出ベンチマークで一貫したパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-03-21T13:14:36Z) - Smooth-Reduce: Leveraging Patches for Improved Certified Robustness [100.28947222215463]
本研究では,Smooth-Reduce の学習自由な修正スムース化手法を提案する。
提案アルゴリズムは,入力画像から抽出した重なり合うパッチを分類し,予測ロジットを集約して,入力周辺の半径が大きいことを証明する。
我々は,このような証明書の理論的保証を提供し,他のランダムな平滑化手法に対する顕著な改善を実証的に示す。
論文 参考訳(メタデータ) (2022-05-12T15:26:20Z) - Certifying Confidence via Randomized Smoothing [151.67113334248464]
ランダムな平滑化は、高次元の分類問題に対して良好な証明されたロバスト性を保証することが示されている。
ほとんどの平滑化法は、下層の分類器が予測する信頼性に関する情報を与えてくれない。
そこで本研究では,スムーズな分類器の予測信頼度を評価するために,認証ラジイを生成する手法を提案する。
論文 参考訳(メタデータ) (2020-09-17T04:37:26Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。