論文の概要: Bridging the Theoretical Gap in Randomized Smoothing
- arxiv url: http://arxiv.org/abs/2504.02412v2
- Date: Tue, 08 Apr 2025 13:31:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 09:45:11.546418
- Title: Bridging the Theoretical Gap in Randomized Smoothing
- Title(参考訳): ランダム化平滑化における理論ギャップのブリッジ化
- Authors: Blaise Delattre, Paul Caillon, Quentin Barthélemy, Erwan Fagnou, Alexandre Allauzen,
- Abstract要約: 本稿では,理論的証明されたロバスト性と経験的精度のギャップを埋める新しい枠組みを提案する。
我々のアプローチは、認証されたロバスト性の境界を厳しくし、実際にモデルロバスト性をより正確に反映します。
- 参考スコア(独自算出の注目度): 43.95721606759696
- License:
- Abstract: Randomized smoothing has become a leading approach for certifying adversarial robustness in machine learning models. However, a persistent gap remains between theoretical certified robustness and empirical robustness accuracy. This paper introduces a new framework that bridges this gap by leveraging Lipschitz continuity for certification and proposing a novel, less conservative method for computing confidence intervals in randomized smoothing. Our approach tightens the bounds of certified robustness, offering a more accurate reflection of model robustness in practice. Through rigorous experimentation we show that our method improves the robust accuracy, compressing the gap between empirical findings and previous theoretical results. We argue that investigating local Lipschitz constants and designing ad-hoc confidence intervals can further enhance the performance of randomized smoothing. These results pave the way for a deeper understanding of the relationship between Lipschitz continuity and certified robustness.
- Abstract(参考訳): ランダムな平滑化は、機械学習モデルにおける敵の堅牢性を証明するための主要なアプローチとなっている。
しかし、理論的な証明されたロバストネスと経験的なロバストネスの精度の間には、永続的なギャップが残っている。
本稿では,リプシッツ連続性を証明に活用し,ランダム化平滑化における信頼区間を計算するための新しい,より保守的な手法を提案することによって,このギャップを埋める新しい枠組みを提案する。
我々のアプローチは、認証されたロバスト性の境界を厳しくし、実際にモデルロバスト性をより正確に反映します。
厳密な実験により,実験結果と過去の理論的結果とのギャップを圧縮し,ロバストな精度の向上を図った。
我々は、局所的なリプシッツ定数の探索とアドホックな信頼区間の設計により、ランダムな平滑化の性能をさらに向上させることができると論じる。
これらの結果は、リプシッツ連続性と証明された堅牢性との関係をより深く理解する道を開く。
関連論文リスト
- Improving self-training under distribution shifts via anchored confidence with theoretical guarantees [13.796664304274643]
自己学習は、予測信頼度と実際の精度の相違が増大するため、分布シフトの時にしばしば不足する。
時間的整合性に基づく分散シフト下での自己学習を改善するための原理的手法を開発した。
提案手法では,計算オーバーヘッドを伴わない分散シフトシナリオにおいて,自己学習性能を8%から16%向上させる。
論文 参考訳(メタデータ) (2024-11-01T13:48:11Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Provable Guarantees for Generative Behavior Cloning: Bridging Low-Level
Stability and High-Level Behavior [51.60683890503293]
生成モデルを用いた複雑な専門家による実演の行動クローニングに関する理論的枠組みを提案する。
任意の専門的軌跡の時間ごとのステップ分布に一致するトラジェクトリを生成することができることを示す。
論文 参考訳(メタデータ) (2023-07-27T04:27:26Z) - Mitigating Transformer Overconfidence via Lipschitz Regularization [5.551514328951632]
リプシッツ正規化変圧器(LRFormer)
バナッハ空間内の距離で、リプシッツ性を確保し、契約的なリプシッツ境界によってこの項を正則化する新しい類似関数を提案する。
標準ビジョンベンチマークで行った実験では、予測、校正、不確実性推定において、我々の手法が最先端のシングルフォワードパスアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-06-12T03:47:43Z) - Certifying Ensembles: A General Certification Theory with
S-Lipschitzness [128.2881318211724]
組み立ては、一般化、不確実性推定、校正、コンセプトドリフトの効果の緩和に有用であることが示されている。
本研究では、S-Lipschitz分類器を導入し、アンサンブルの理論的堅牢性を分析することにより、リプシッツ連続性を一般化する。
論文 参考訳(メタデータ) (2023-04-25T17:50:45Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - Adversarial Robustness of Supervised Sparse Coding [34.94566482399662]
表現を学習すると同時に、正確な一般化境界と堅牢性証明を与えるモデルを考える。
線形エンコーダと組み合わされたスパーシティプロモーティングエンコーダを組み合わせた仮説クラスに着目した。
エンドツーエンドの分類のための堅牢性証明を提供する。
論文 参考訳(メタデータ) (2020-10-22T22:05:21Z) - Regularized Training and Tight Certification for Randomized Smoothed
Classifier with Provable Robustness [15.38718018477333]
我々は新たな正規化リスクを導出し、正規化器はスムーズな手法の精度と堅牢性を適応的に促進することができる。
また、正規化効果を利用して、高い確率で保持されるより厳密なロバスト性の下限を提供する新しい認証アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-02-17T20:54:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。