論文の概要: Enhancing Certifiable Semantic Robustness via Robust Pruning of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2510.00083v1
- Date: Tue, 30 Sep 2025 05:50:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.170695
- Title: Enhancing Certifiable Semantic Robustness via Robust Pruning of Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークのロバストプルーニングによる意味的ロバスト性向上
- Authors: Hanjiang Hu, Bowei Li, Ziwei Wang, Tianhao Wei, Casidhe Hutchison, Eric Sample, Changliu Liu,
- Abstract要約: ディープニューラルネットワークは視覚入力を備えた多くのビジョンやロボット工学アプリケーションで広く採用されている。
明るさやコントラストといったセマンティックトランスフォーメーションの摂動に対する堅牢性を検証することが不可欠である。
我々は,USNの低いニューロンを除去し,USNの低いニューロンを除去する新しいニューラルネットワークプルーニング手法を提案する。
- 参考スコア(独自算出の注目度): 15.439292368123366
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks have been widely adopted in many vision and robotics applications with visual inputs. It is essential to verify its robustness against semantic transformation perturbations, such as brightness and contrast. However, current certified training and robustness certification methods face the challenge of over-parameterization, which hinders the tightness and scalability due to the over-complicated neural networks. To this end, we first analyze stability and variance of layers and neurons against input perturbation, showing that certifiable robustness can be indicated by a fundamental Unbiased and Smooth Neuron metric (USN). Based on USN, we introduce a novel neural network pruning method that removes neurons with low USN and retains those with high USN, thereby preserving model expressiveness without over-parameterization. To further enhance this pruning process, we propose a new Wasserstein distance loss to ensure that pruned neurons are more concentrated across layers. We validate our approach through extensive experiments on the challenging robust keypoint detection task, which involves realistic brightness and contrast perturbations, demonstrating that our method achieves superior robustness certification performance and efficiency compared to baselines.
- Abstract(参考訳): ディープニューラルネットワークは視覚入力を備えた多くのビジョンやロボット工学アプリケーションで広く採用されている。
明るさやコントラストといったセマンティックトランスフォーメーションの摂動に対する堅牢性を検証することが不可欠である。
しかし、現在の認定トレーニングとロバストネス認証手法は、過パラメータ化の課題に直面している。
そこで我々はまず,入力摂動に対する層とニューロンの安定性と分散を解析し,基礎的Unbiased and Smooth Neuron metric (USN) によって証明可能なロバスト性を示すことを示す。
我々は,USNの低いニューロンを除去し,USNの高いニューロンを保存し,過度なパラメータ化を伴わないモデル表現性を維持する新しいニューラルネットワークプルーニング手法を提案する。
この刈り取りプロセスをさらに強化するため、我々は、切削されたニューロンが層全体により集中していることを保証するために、新しいワッサースタイン距離損失を提案する。
我々は,現実的な明るさとコントラスト摂動を伴う頑健なキーポイント検出タスクに関する広範囲な実験を通じて,本手法がベースラインよりも優れたロバストネス認証性能と効率を達成することを示す。
関連論文リスト
- Confident magnitude-based neural network pruning [0.0]
ニューラルネットワークのプルーニングは、ディープラーニングモデルの効率向上とメモリストレージの削減に成功している。
我々は、分布のない不確実性定量化に関する最近の技術を活用し、深いニューラルネットワークを圧縮するための有限サンプル統計保証を提供する。
この研究は、不確実性を認識したプルーニングが、スパースニューラルネットワークを安全にデプロイするための有用なアプローチであることを示すために、コンピュータビジョンタスクでの実験を示す。
論文 参考訳(メタデータ) (2024-08-08T21:29:20Z) - Peeking Behind the Curtains of Residual Learning [10.915277646160707]
The Plain Neural Net hypothesis (PNNH) は、非線形層を横断する内部経路を残留学習において最も重要な部分として認識する。
我々は,PNNH対応CNNアーキテクチャとトランスフォーマーを一般的なビジョンベンチマーク上で徹底的に評価し,トレーニングスループットが最大0.3%向上し,ResNetやビジョントランスフォーマーに比べてパラメータ効率が2倍向上したことを示す。
論文 参考訳(メタデータ) (2024-02-13T18:24:10Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Cycle Consistency-based Uncertainty Quantification of Neural Networks in
Inverse Imaging Problems [10.992084413881592]
ディープニューラルネットワークの多くの応用には不確実性推定が不可欠である。
サイクル整合性に基づく逆問題に使用されるディープニューラルネットワークに対する不確実性定量化手法を示す。
論文 参考訳(メタデータ) (2023-05-22T09:23:18Z) - On the Robustness and Anomaly Detection of Sparse Neural Networks [28.832060124537843]
スパシティーによってネットワークがより堅牢になり、異常検知がより良くなることを示す。
また, 構造的疎水性は, 高価なロバスト性および検出方法の複雑さを低減するのに大いに有効であることを示す。
本稿では,適切な刈り取り法から得られた重みの感度を利用して異常サンプルを検出する新しい手法であるSensNormを紹介する。
論文 参考訳(メタデータ) (2022-07-09T09:03:52Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - A Robust Backpropagation-Free Framework for Images [47.97322346441165]
画像データに対するエラーカーネル駆動型アクティベーションアライメントアルゴリズムを提案する。
EKDAAは、ローカルに派生したエラー送信カーネルとエラーマップを導入することで達成される。
結果は、識別不能なアクティベーション機能を利用するEKDAAトレーニングCNNに対して提示される。
論文 参考訳(メタデータ) (2022-06-03T21:14:10Z) - Enhancing Robustness of Neural Networks through Fourier Stabilization [18.409463838775558]
本稿では,二元入力を用いた回避ロバストニューラルネットワークの設計のための新しいアプローチであるemphFourier安定化を提案する。
提案手法の有効性を実験的に検証し,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2021-06-08T15:12:31Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。