論文の概要: FullCert: Deterministic End-to-End Certification for Training and Inference of Neural Networks
- arxiv url: http://arxiv.org/abs/2406.11522v1
- Date: Mon, 17 Jun 2024 13:23:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 14:42:04.955050
- Title: FullCert: Deterministic End-to-End Certification for Training and Inference of Neural Networks
- Title(参考訳): FullCert:ニューラルネットワークのトレーニングと推論のための決定論的エンドツーエンド認証
- Authors: Tobias Lorenz, Marta Kwiatkowska, Mario Fritz,
- Abstract要約: FullCertは、音質、決定論的境界を持つ最初のエンドツーエンドの認証装置であり、トレーニング時間と推論時間の両方に対する堅牢性を証明している。
理論的作業と新たなオープンソースライブラリであるBoundFlowを組み合わせることで,有界データセットのモデルトレーニングを可能にします。
- 参考スコア(独自算出の注目度): 62.897993591443594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern machine learning models are sensitive to the manipulation of both the training data (poisoning attacks) and inference data (adversarial examples). Recognizing this issue, the community has developed many empirical defenses against both attacks and, more recently, provable certification methods against inference-time attacks. However, such guarantees are still largely lacking for training-time attacks. In this work, we present FullCert, the first end-to-end certifier with sound, deterministic bounds, which proves robustness against both training-time and inference-time attacks. We first bound all possible perturbations an adversary can make to the training data under the considered threat model. Using these constraints, we bound the perturbations' influence on the model's parameters. Finally, we bound the impact of these parameter changes on the model's prediction, resulting in joint robustness guarantees against poisoning and adversarial examples. To facilitate this novel certification paradigm, we combine our theoretical work with a new open-source library BoundFlow, which enables model training on bounded datasets. We experimentally demonstrate FullCert's feasibility on two different datasets.
- Abstract(参考訳): 現代の機械学習モデルは、トレーニングデータ(中毒攻撃)と推論データ(逆例)の両方の操作に敏感である。
この問題を認識し、コミュニティは双方の攻撃に対して多くの実証的な防御方法を開発し、最近では推論時攻撃に対して証明可能な認証方法も開発している。
しかし、そのような保証は依然として訓練時の攻撃には欠落している。
本研究では,音質,決定論的境界を持つ最初のエンドツーエンド認証器であるFullCertを紹介し,トレーニング時間と推論時間の両方に対する堅牢性を示す。
我々はまず、敵が想定される脅威モデルの下でトレーニングデータにできるあらゆる可能な摂動を束縛する。
これらの制約を用いることで、摂動がモデルのパラメータに与える影響を制限します。
最後に、これらのパラメータの変化がモデルの予測に与える影響を限定し、その結果、毒や敵の例に対する共同堅牢性を保証する。
この新たな認証パラダイムを促進するため、我々は、境界付きデータセットのモデルトレーニングを可能にする、新たなオープンソースのライブラリであるBoundFlowと理論的な作業を組み合わせる。
2つの異なるデータセットに対してFullCertの有効性を実験的に示す。
関連論文リスト
- Certified Robustness to Data Poisoning in Gradient-Based Training [10.79739918021407]
我々は、潜在的に操作されたデータでトレーニングされたモデルの振る舞いを証明可能な保証を提供する最初のフレームワークを開発する。
本フレームワークは,未標的および標的毒に対するロバスト性,および入力およびラベル操作の両方に対するバックドア攻撃を認証する。
我々は、エネルギー消費、医療画像、自律運転などの応用から、複数の実世界のデータセットに対するアプローチを実証する。
論文 参考訳(メタデータ) (2024-06-09T06:59:46Z) - Robustness-Congruent Adversarial Training for Secure Machine Learning
Model Updates [13.911586916369108]
機械学習モデルにおける誤分類は、敵の例に対して堅牢性に影響を及ぼす可能性があることを示す。
この問題に対処するために,ロバストネス・コングロレント・逆行訓練という手法を提案する。
我々のアルゴリズムと、より一般的には、非回帰的制約で学習することは、一貫した推定器を訓練するための理論的に基底的なフレームワークを提供することを示す。
論文 参考訳(メタデータ) (2024-02-27T10:37:13Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Data Poisoning Attack Aiming the Vulnerability of Continual Learning [25.480762565632332]
本稿では,新しいタスクの学習プロセスで使用できる,単純なタスク固有のデータ中毒攻撃について述べる。
2つの代表的な正規化に基づく連続学習手法に対する攻撃実験を行った。
論文 参考訳(メタデータ) (2022-11-29T02:28:05Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Asymptotic Behavior of Adversarial Training in Binary Classification [41.7567932118769]
敵の訓練は、敵の攻撃に対する防衛の最先端の方法と考えられている。
実際に成功したにもかかわらず、敵の訓練のパフォーマンスを理解する上でのいくつかの問題は未解決のままである。
2進分類における対角訓練の最小化のための正確な理論的予測を導出する。
論文 参考訳(メタデータ) (2020-10-26T01:44:20Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。