論文の概要: BiCert: A Bilinear Mixed Integer Programming Formulation for Precise Certified Bounds Against Data Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2412.10186v1
- Date: Fri, 13 Dec 2024 14:56:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-16 15:03:49.705931
- Title: BiCert: A Bilinear Mixed Integer Programming Formulation for Precise Certified Bounds Against Data Poisoning Attacks
- Title(参考訳): BiCert: データ中毒攻撃に対する正確な認証境界のためのビリニア混合整数プログラミングの定式化
- Authors: Tobias Lorenz, Marta Kwiatkowska, Mario Fritz,
- Abstract要約: データ中毒攻撃は、現代のAIシステムにとって最大の脅威の1つだ。
データ中毒攻撃は、現代のAIシステムにとって最大の脅威の1つだ。
データ中毒攻撃は、現代のAIシステムにとって最大の脅威の1つだ。
- 参考スコア(独自算出の注目度): 62.897993591443594
- License:
- Abstract: Data poisoning attacks pose one of the biggest threats to modern AI systems, necessitating robust defenses. While extensive efforts have been made to develop empirical defenses, attackers continue to evolve, creating sophisticated methods to circumvent these measures. To address this, we must move beyond empirical defenses and establish provable certification methods that guarantee robustness. This paper introduces a novel certification approach, BiCert, using Bilinear Mixed Integer Programming (BMIP) to compute sound deterministic bounds that provide such provable robustness. Using BMIP, we compute the reachable set of parameters that could result from training with potentially manipulated data. A key element to make this computation feasible is to relax the reachable parameter set to a convex set between training iterations. At test time, this parameter set allows us to predict all possible outcomes, guaranteeing robustness. BiCert is more precise than previous methods, which rely solely on interval and polyhedral bounds. Crucially, our approach overcomes the fundamental limitation of prior approaches where parameter bounds could only grow, often uncontrollably. We show that BiCert's tighter bounds eliminate a key source of divergence issues, resulting in more stable training and higher certified accuracy.
- Abstract(参考訳): データ中毒攻撃は、現代のAIシステムにとって最大の脅威の1つであり、堅牢な防御を必要としている。
経験的防御を開発するために広範囲な努力がなされてきたが、攻撃者は進化を続け、これらの対策を回避するための洗練された方法を生み出している。
これに対処するためには、実証的な防御を超えて、堅牢性を保証する証明可能な認証方法を確立する必要があります。
本稿では,Bylinear Mixed Integer Programming (BMIP) を用いた新しい認証手法であるBiCertを導入する。
BMIPを用いて、潜在的に操作されたデータによるトレーニングの結果生じるパラメータの到達可能な集合を計算する。
この計算を実現するための重要な要素は、トレーニングイテレーション間の凸セットに設定された到達可能なパラメータを緩和することである。
テスト時には、このパラメータセットによって、すべての可能な結果を予測することができ、堅牢性を保証することができます。
BiCertは、間隔と多面体境界のみに依存する従来の方法よりも正確である。
重要なことに、我々のアプローチは、パラメータ境界がしばしば制御不能にしか成長できない以前のアプローチの基本的な制限を克服する。
我々は,BiCertの厳密な境界が分岐問題の鍵となる原因を排除し,より安定したトレーニングと高い認証精度を実現することを示した。
関連論文リスト
- Certified Robustness for Deep Equilibrium Models via Serialized Random Smoothing [12.513566361816684]
Deep Equilibrium Models (DEQ)のような暗黙のモデルは、ディープニューラルネットワークを構築するための有望な代替アプローチとして現れている。
決定論的認証手法を用いた既存のDECの認証防御は、大規模なデータセットでは認証できない。
我々はこれらの制限を解決するために、DECに対する最初のランダム化スムーズな認証防御を提供する。
論文 参考訳(メタデータ) (2024-11-01T06:14:11Z) - FullCert: Deterministic End-to-End Certification for Training and Inference of Neural Networks [62.897993591443594]
FullCertは、音と決定論的境界を持つ最初のエンドツーエンドの認証器である。
2つのデータセットに対してFullCertの有効性を実験的に示す。
論文 参考訳(メタデータ) (2024-06-17T13:23:52Z) - Certified Robustness to Data Poisoning in Gradient-Based Training [10.79739918021407]
我々は、潜在的に操作されたデータでトレーニングされたモデルの振る舞いを証明可能な保証を提供する最初のフレームワークを開発する。
我々の枠組みは、標的外および標的の毒、およびバックドア攻撃に対する堅牢性を証明している。
我々は、エネルギー消費、医療画像、自律運転などの応用から、複数の実世界のデータセットに対するアプローチを実証する。
論文 参考訳(メタデータ) (2024-06-09T06:59:46Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Sparse PCA: Algorithms, Adversarial Perturbations and Certificates [9.348107805982604]
標準統計モデルにおけるスパースPCAの効率的なアルゴリズムについて検討する。
私たちのゴールは、小さな摂動に耐性を持ちながら、最適な回復保証を達成することです。
論文 参考訳(メタデータ) (2020-11-12T18:58:51Z) - Regularized Training and Tight Certification for Randomized Smoothed
Classifier with Provable Robustness [15.38718018477333]
我々は新たな正規化リスクを導出し、正規化器はスムーズな手法の精度と堅牢性を適応的に促進することができる。
また、正規化効果を利用して、高い確率で保持されるより厳密なロバスト性の下限を提供する新しい認証アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-02-17T20:54:34Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。