論文の概要: Reconcile Certified Robustness and Accuracy for DNN-based Smoothed Majority Vote Classifier
- arxiv url: http://arxiv.org/abs/2509.25979v1
- Date: Tue, 30 Sep 2025 09:11:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.484696
- Title: Reconcile Certified Robustness and Accuracy for DNN-based Smoothed Majority Vote Classifier
- Title(参考訳): DNNに基づく平滑な多数投票分類器におけるロバスト性と精度の再確認
- Authors: Gaojie Jin, Xinping Yi, Xiaowei Huang,
- Abstract要約: 我々は、スムーズな多数決分類器に対して、証明されたロバスト半径を有する一般化誤差を開発する。
一般化境界と証明されたロバスト半径の両方の基盤は、部分的には重みスペクトルノルムに基づいて引き出される。
本研究では,スムーズな多数決分類を行うための新しい,安価なスペクトル正規化器を提案する。
- 参考スコア(独自算出の注目度): 33.97966720191886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Within the PAC-Bayesian framework, the Gibbs classifier (defined on a posterior $Q$) and the corresponding $Q$-weighted majority vote classifier are commonly used to analyze the generalization performance. However, there exists a notable lack in theoretical research exploring the certified robustness of majority vote classifier and its interplay with generalization. In this study, we develop a generalization error bound that possesses a certified robust radius for the smoothed majority vote classifier (i.e., the $Q$-weighted majority vote classifier with smoothed inputs); In other words, the generalization bound holds under any data perturbation within the certified robust radius. As a byproduct, we find that the underpinnings of both the generalization bound and the certified robust radius draw, in part, upon weight spectral norm, which thereby inspires the adoption of spectral regularization in smooth training to boost certified robustness. Utilizing the dimension-independent property of spherical Gaussian inputs in smooth training, we propose a novel and inexpensive spectral regularizer to enhance the smoothed majority vote classifier. In addition to the theoretical contribution, a set of empirical results is provided to substantiate the effectiveness of our proposed method.
- Abstract(参考訳): PAC-Bayesianフレームワークでは、Gibs分類器(後述の$Q$で定義される)とそれに対応する$Q$の多数決分類器が、一般化性能の分析に一般的に使用される。
しかし、多数決分類者の証明された堅牢性とその一般化との相互作用を探求する理論的な研究には顕著な欠如がある。
本研究では、スムーズな多数決分類器(例えば、スムーズな入力を持つ$Q$の多数決分類器)に対して、証明されたロバストな半径を持つ一般化誤差を開発する。
副産物として、一般化境界と証明されたロバスト半径の双方の基盤は、部分的にはウェイトスペクトルノルムに基づいて引き出されることが分かり、それによってスムーズトレーニングにおけるスペクトル正則化の採用が促進され、証明されたロバストネスが向上する。
球面ガウス入力のスムーズトレーニングにおける次元非依存性を利用して、スムーズな多数決分類器を強化するための、新しく安価なスペクトル正規化器を提案する。
理論的貢献に加えて,提案手法の有効性を実証するための実験結果のセットが提供される。
関連論文リスト
- Principal Eigenvalue Regularization for Improved Worst-Class Certified Robustness of Smoothed Classifiers [12.111055834612062]
我々はスムーズな分類器の最悪のクラスエラーに対するPAC-Bayesian境界を開発する。
そこで本研究では,スムーズな乱雑行列の最大固有値を最適化し,最低級精度を向上する正規化手法を提案する。
論文 参考訳(メタデータ) (2025-03-21T14:18:18Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Understanding Noise-Augmented Training for Randomized Smoothing [14.061680807550722]
ランダムスムーシング(Randomized smoothing)は、敵攻撃に対する証明可能な堅牢性を保証する技術である。
より強い分布仮定を作らずに、雑音増強の訓練を受けた予測者から利益を期待できないことを示す。
本分析は, ランダム化平滑化の実践的展開に直接的な意味を持つ。
論文 参考訳(メタデータ) (2023-05-08T14:46:34Z) - Certifying Ensembles: A General Certification Theory with
S-Lipschitzness [128.2881318211724]
組み立ては、一般化、不確実性推定、校正、コンセプトドリフトの効果の緩和に有用であることが示されている。
本研究では、S-Lipschitz分類器を導入し、アンサンブルの理論的堅牢性を分析することにより、リプシッツ連続性を一般化する。
論文 参考訳(メタデータ) (2023-04-25T17:50:45Z) - Learning Stochastic Majority Votes by Minimizing a PAC-Bayes
Generalization Bound [15.557653926558638]
分類器の有限アンサンブルに対する多数票の対について検討し、その一般化特性について検討する。
ディリクレ分布でインスタンス化し、予測されるリスクに対して閉じた形式と微分可能な表現を可能にする。
結果の多数決学習アルゴリズムは、最先端の精度と(非空きな)厳密な境界から恩恵を得る。
論文 参考訳(メタデータ) (2021-06-23T16:57:23Z) - Robust Certification for Laplace Learning on Geometric Graphs [9.873635079670091]
グラフラプラシアン(GL)に基づく半教師付き学習は、グラフ内のノードを分類する最もよく使われる手法の1つである。
GL分類器に対する最初の対角的ロバスト認証を提供する。
論文 参考訳(メタデータ) (2021-04-22T02:52:21Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。