論文の概要: An Equivalence Between Data Poisoning and Byzantine Gradient Attacks
- arxiv url: http://arxiv.org/abs/2202.08578v1
- Date: Thu, 17 Feb 2022 10:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 14:22:47.492168
- Title: An Equivalence Between Data Poisoning and Byzantine Gradient Attacks
- Title(参考訳): データ中毒とビザンチン勾配攻撃の等価性
- Authors: Sadegh Farhadkhani, Rachid Guerraoui, L\^e-Nguy\^en Hoang, Oscar
Villemaud
- Abstract要約: ビザンティン」の文献では、労働者がパラメータサーバに任意の勾配を報告できる強力な脅威モデルが検討されている。
このモデルとデータ中毒の間には驚くほどの等価性があり、より現実的な脅威だと考えられています。
- 参考スコア(独自算出の注目度): 5.601217969637838
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To study the resilience of distributed learning, the "Byzantine" literature
considers a strong threat model where workers can report arbitrary gradients to
the parameter server. Whereas this model helped obtain several fundamental
results, it has sometimes been considered unrealistic, when the workers are
mostly trustworthy machines. In this paper, we show a surprising equivalence
between this model and data poisoning, a threat considered much more realistic.
More specifically, we prove that every gradient attack can be reduced to data
poisoning, in any personalized federated learning system with PAC guarantees
(which we show are both desirable and realistic). This equivalence makes it
possible to obtain new impossibility results on the resilience to data
poisoning as corollaries of existing impossibility theorems on Byzantine
machine learning. Moreover, using our equivalence, we derive a practical attack
that we show (theoretically and empirically) can be very effective against
classical personalized federated learning models.
- Abstract(参考訳): 分散学習のレジリエンスを研究するために、"ビザンティン"文学は、労働者がパラメータサーバに任意の勾配を報告できる強力な脅威モデルを考える。
このモデルはいくつかの基本的な結果を得るのに役立ったが、労働者がほとんど信頼できる機械であるときには、時には非現実的とみなされる。
本稿では,本モデルとデータ中毒との間に驚くべき等価性を示す。
より具体的には、PACを保証するパーソナライズされたフェデレーション学習システムにおいて、すべての勾配攻撃がデータ中毒に還元できることを証明します。
この同値性により、ビザンティン機械学習における既存の不可能性定理のまとめとして、データ中毒に対するレジリエンスに関する新しい不合理性結果が得られる。
さらに,同値性を用いることで,(理論上,経験的に)古典的なパーソナライズされた連合学習モデルに対して非常に効果的であることを示す,実践的な攻撃を導出する。
関連論文リスト
- Deferred Poisoning: Making the Model More Vulnerable via Hessian Singularization [39.37308843208039]
我々は、より脅迫的なタイプの毒殺攻撃(Dederred Poisoning Attack)を導入する。
この新たな攻撃により、モデルは通常、トレーニングと検証フェーズで機能するが、回避攻撃や自然騒音に非常に敏感になる。
提案手法の理論的および実証的な解析を行い、画像分類タスクの実験を通してその効果を検証した。
論文 参考訳(メタデータ) (2024-11-06T08:27:49Z) - FullCert: Deterministic End-to-End Certification for Training and Inference of Neural Networks [62.897993591443594]
FullCertは、音と決定論的境界を持つ最初のエンドツーエンドの認証器である。
2つのデータセットに対してFullCertの有効性を実験的に示す。
論文 参考訳(メタデータ) (2024-06-17T13:23:52Z) - Bounding Reconstruction Attack Success of Adversaries Without Data
Priors [53.41619942066895]
機械学習(ML)モデルに対する再構成攻撃は、機密データの漏洩の強いリスクをもたらす。
本研究では,現実的な対角的環境下での再建成功に関する公式な上限を提供する。
論文 参考訳(メタデータ) (2024-02-20T09:52:30Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - Bias-inducing geometries: an exactly solvable data model with fairness
implications [13.690313475721094]
我々は、正確に解決可能なデータ不均衡の高次元モデルを導入する。
この合成フレームワークで訓練された学習モデルの典型的特性を解析的に解き放つ。
フェアネス評価によく用いられる観測対象の正確な予測値を得る。
論文 参考訳(メタデータ) (2022-05-31T16:27:57Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Uses and Abuses of the Cross-Entropy Loss: Case Studies in Modern Deep
Learning [29.473503894240096]
我々は、厳密な分類ではなく、単純な表現の値を取るデータにカテゴリ横断エントロピー損失を用いることに焦点をあてる。
このプラクティスは、ラベルの平滑化やアクター/ミリ波強化学習など、ニューラルネットワークアーキテクチャにおいて標準的なものだ。
我々はこれらのモデルに対して確率論的に着想を得た代替案を提案し、より原理的で理論的に魅力的であるアプローチを提供する。
論文 参考訳(メタデータ) (2020-11-10T16:44:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。