論文の概要: Efficient Robust Conformal Prediction via Lipschitz-Bounded Networks
- arxiv url: http://arxiv.org/abs/2506.05434v2
- Date: Tue, 10 Jun 2025 07:49:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 12:52:34.273893
- Title: Efficient Robust Conformal Prediction via Lipschitz-Bounded Networks
- Title(参考訳): リプシッツ境界ネットワークによる効率的なロバスト波形予測
- Authors: Thomas Massena, Léo andéol, Thibaut Boissin, Franck Mamalet, Corentin Friedrich, Mathieu Serrurier, Sébastien Gerchinovitz,
- Abstract要約: コンフォーマル予測(CP)は、ニューラルネットワークの信頼性を改善する効果的な方法であることが証明されている。
そこで我々は,Lipschitz-bounded network を用いてロバストCP集合を高精度かつ効率的に推定する手法を提案する。
我々のリップ-rcp法は、この2番目のアプローチをバニラCPと同じくらい効率的にすると同時に、堅牢性を保証する。
- 参考スコア(独自算出の注目度): 7.428082880875367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conformal Prediction (CP) has proven to be an effective post-hoc method for improving the trustworthiness of neural networks by providing prediction sets with finite-sample guarantees. However, under adversarial attacks, classical conformal guarantees do not hold anymore: this problem is addressed in the field of Robust Conformal Prediction. Several methods have been proposed to provide robust CP sets with guarantees under adversarial perturbations, but, for large scale problems, these sets are either too large or the methods are too computationally demanding to be deployed in real life scenarios. In this work, we propose a new method that leverages Lipschitz-bounded networks to precisely and efficiently estimate robust CP sets. When combined with a 1-Lipschitz robust network, we demonstrate that our lip-rcp method outperforms state-of-the-art results in both the size of the robust CP sets and computational efficiency in medium and large-scale scenarios such as ImageNet. Taking a different angle, we also study vanilla CP under attack, and derive new worst-case coverage bounds of vanilla CP sets, which are valid simultaneously for all adversarial attack levels. Our lip-rcp method makes this second approach as efficient as vanilla CP while also allowing robustness guarantees.
- Abstract(参考訳): コンフォーマル予測(CP)は、有限サンプル保証付き予測セットを提供することで、ニューラルネットワークの信頼性を向上させる効果的なポストホック法であることが証明されている。
しかし、敵対的攻撃の下では、古典的な共形保証はもはや保たず、この問題はロバスト・コンフォーマル予測の分野で解決される。
対向的摂動下での保証付き頑健なCPセットを提供するためのいくつかの方法が提案されているが、大規模な問題では、これらのセットは大きすぎるか、現実のシナリオに展開するには計算が大きすぎるかのいずれかである。
本研究では,Lipschitz-bounded network を用いてロバストCP集合を高精度かつ効率的に推定する手法を提案する。
1-Lipschitzのロバストネットワークと組み合わせることで、当社のリップ-rcp法は、ロバストCPセットのサイズと、ImageNetのような中規模および大規模シナリオにおける計算効率の両方において、最先端の結果より優れていることを示す。
異なる角度でバニラCPを攻撃対象とし,バニラCPセットの最悪のカバー範囲を抽出し,全ての攻撃レベルに対して同時に有効である。
我々のリップ-rcp法は、この2番目のアプローチをバニラCPと同じくらい効率的にすると同時に、堅牢性を保証する。
関連論文リスト
- Robust Conformal Prediction with a Single Binary Certificate [58.450154976190795]
コンフォーマル予測(CP)は、任意のモデルの出力を、真のラベルを(調整可能な)高い確率でカバーすることを保証した予測セットに変換する。
我々は,MCサンプルが著しく低い場合でも,より小さな集合を生成する頑健な共形予測を提案する。
論文 参考訳(メタデータ) (2025-03-07T08:41:53Z) - BiCert: A Bilinear Mixed Integer Programming Formulation for Precise Certified Bounds Against Data Poisoning Attacks [62.897993591443594]
データ中毒攻撃は、現代のAIシステムにとって最大の脅威の1つだ。
データ中毒攻撃は、現代のAIシステムにとって最大の脅威の1つだ。
データ中毒攻撃は、現代のAIシステムにとって最大の脅威の1つだ。
論文 参考訳(メタデータ) (2024-12-13T14:56:39Z) - Verifiably Robust Conformal Prediction [1.391198481393699]
本稿では、ニューラルネットワーク検証手法を利用して、敵攻撃時のカバレッジ保証を回復する新しいフレームワークであるVRCP(Verifiably Robust Conformal Prediction)を紹介する。
私たちのメソッドは、回帰タスクだけでなく、$ell1$, $ell2$, $ellinfty$といった任意のノルムで束縛された摂動をサポートする最初の方法です。
いずれの場合も、VRCPは名目上の範囲を達成し、SotAよりもはるかに効率的で情報的な予測領域が得られる。
論文 参考訳(メタデータ) (2024-05-29T09:50:43Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - Provably Robust Conformal Prediction with Improved Efficiency [29.70455766394585]
コンフォーマル予測は、保証されたカバレッジで不確実性セットを生成する強力なツールである。
逆の例は、不正なカバレッジ率の予測セットを構築するために共形メソッドを操作することができる。
本稿では,PTT(Post-Training Transformation)とRCT(Robust Conformal Training)という2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-30T15:49:01Z) - Probabilistically robust conformal prediction [9.401004747930974]
コンフォーマル予測(CP)は、ディープニューラルネットワークを含む機械学習分類器の不確実性を定量化するフレームワークである。
CPに関する既存の作業のほとんど全てがクリーンなテストデータを前提としており、CPアルゴリズムの堅牢性についてはあまり知られていない。
本稿では,ほとんどの摂動に対して頑健性を保証する確率論的頑健な共形予測(PRCP)の問題について検討する。
論文 参考訳(メタデータ) (2023-07-31T01:32:06Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z) - Selective Classification via One-Sided Prediction [54.05407231648068]
片側予測(OSP)に基づく緩和は、実際に関係する高目標精度体制において、ほぼ最適カバレッジが得られるSCスキームをもたらす。
理論的には,SCとOSPのバウンダリ一般化を導出し,その手法が小さな誤差レベルでのカバレッジにおいて,技術手法の状態を強く上回ることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:14:27Z) - Second-Order Provable Defenses against Adversarial Attacks [63.34032156196848]
ネットワークの固有値が有界であれば、凸最適化を用いて$l$ノルムの証明を効率的に計算できることを示す。
認証精度は5.78%,44.96%,43.19%であった。
論文 参考訳(メタデータ) (2020-06-01T05:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。