論文の概要: On the Relevance of Byzantine Robust Optimization Against Data Poisoning
- arxiv url: http://arxiv.org/abs/2405.00491v1
- Date: Wed, 1 May 2024 12:57:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-02 15:37:50.392519
- Title: On the Relevance of Byzantine Robust Optimization Against Data Poisoning
- Title(参考訳): データ中毒に対するビザンチンロバスト最適化の意義について
- Authors: Sadegh Farhadkhani, Rachid Guerraoui, Nirupam Gupta, Rafael Pinot,
- Abstract要約: 本研究では、労働者が所定のアルゴリズムから任意に逸脱できるEm Byzantine MLの問題について検討する。
ビザンチン・ロバスト・スキームがデータ中毒と不良労働者の両方に対して最適な解決策をもたらすことを実証する。
- 参考スコア(独自算出の注目度): 11.355829473011463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of machine learning (ML) has been intimately linked with the availability of large amounts of data, typically collected from heterogeneous sources and processed on vast networks of computing devices (also called {\em workers}). Beyond accuracy, the use of ML in critical domains such as healthcare and autonomous driving calls for robustness against {\em data poisoning}and some {\em faulty workers}. The problem of {\em Byzantine ML} formalizes these robustness issues by considering a distributed ML environment in which workers (storing a portion of the global dataset) can deviate arbitrarily from the prescribed algorithm. Although the problem has attracted a lot of attention from a theoretical point of view, its practical importance for addressing realistic faults (where the behavior of any worker is locally constrained) remains unclear. It has been argued that the seemingly weaker threat model where only workers' local datasets get poisoned is more reasonable. We prove that, while tolerating a wider range of faulty behaviors, Byzantine ML yields solutions that are, in a precise sense, optimal even under the weaker data poisoning threat model. Then, we study a generic data poisoning model wherein some workers have {\em fully-poisonous local data}, i.e., their datasets are entirely corruptible, and the remainders have {\em partially-poisonous local data}, i.e., only a fraction of their local datasets is corruptible. We prove that Byzantine-robust schemes yield optimal solutions against both these forms of data poisoning, and that the former is more harmful when workers have {\em heterogeneous} local data.
- Abstract(参考訳): 機械学習(ML)の成功は、典型的には異質なソースから収集され、巨大なコンピュータ機器(「.em workers」とも呼ばれる)のネットワークで処理される大量のデータと密接に関連している。
正確性以外にも、医療や自動運転といった重要な領域におけるMLの使用は、データ中毒に対する堅牢性を要求する。
{\em Byzantine ML} の問題は、労働者(グローバルデータセットの一部を保存する)が所定のアルゴリズムから任意に逸脱できる分散ML環境を考えることによって、これらの堅牢性問題を公式化する。
この問題は理論的な観点からは多くの注目を集めているが、現実的な欠点(労働者の振る舞いが局所的に制約されている)に対処する上での実践的重要性はいまだ不明である。
労働者の局所的なデータセットが中毒になるという、一見弱い脅威モデルの方が、より合理的である、と論じられている。
より広範な障害行為を許容する一方で、Byzantine MLは、正確な意味では、より弱いデータ中毒脅威モデルの下でさえ最適なソリューションを得られることを証明している。
そして、一部の労働者が完全に有害な局所データ、すなわちデータセットが完全に破損し、残りの労働者が部分的に有害な局所データ、すなわちローカルなデータセットのごく一部が破損する一般データ中毒モデルについて検討する。
我々は、ビザンチン・ロバスト方式が、これらの2種類のデータ中毒に対して最適な解決策をもたらすことを証明し、労働者が不均一なローカルデータを持っている場合、前者がより有害であることを示す。
関連論文リスト
- Optimal Robust Estimation under Local and Global Corruptions: Stronger Adversary and Smaller Error [10.266928164137635]
アルゴリズムによる頑健な統計は伝統的に、サンプルのごく一部が任意に破損する汚染モデルに焦点を当ててきた。
最近の汚染モデルでは, (i) 古典的ロバスト統計のように, 任意の外れ値のごく一部と (ii) 局所摂動, (ii) サンプルが平均的に有界シフトを行うことのできる2種類の汚染モデルを考える。
理論上最適誤差は, 偶発的局所摂動モデルの下で, 時間内に得られることを示す。
論文 参考訳(メタデータ) (2024-10-22T17:51:23Z) - A GAN-Based Data Poisoning Attack Against Federated Learning Systems and Its Countermeasure [17.975736855580674]
本稿では,VagGANという新たなデータ中毒モデルを提案する。
VagueGANは、GAN(Generative Adversarial Network)の変異を利用して、一見正当であるがノイズの多い有毒なデータを生成することができる。
我々の攻撃方法は一般によりステルス性が高く、複雑性の低いFL性能の劣化に有効である。
論文 参考訳(メタデータ) (2024-05-19T04:23:40Z) - Precision Guided Approach to Mitigate Data Poisoning Attacks in Federated Learning [4.907460152017894]
フェデレートラーニング(Federated Learning, FL)は、参加者が共有機械学習モデルを集合的にトレーニングすることを可能にする、協調学習パラダイムである。
データ中毒攻撃に対する現在のFL防衛戦略は、正確性と堅牢性の間のトレードオフを含む。
本稿では、FLにおけるデータ中毒攻撃を効果的に対処するために、ゾーンベースの退避更新(ZBDU)機構を利用するFedZZを提案する。
論文 参考訳(メタデータ) (2024-04-05T14:37:49Z) - Federated Causal Discovery from Heterogeneous Data [70.31070224690399]
任意の因果モデルと異種データに対応する新しいFCD法を提案する。
これらのアプローチには、データのプライバシを保護するために、生データのプロキシとして要約統計を構築することが含まれる。
提案手法の有効性を示すために, 合成および実データを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-02-20T18:53:53Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - Autoregressive Perturbations for Data Poisoning [54.205200221427994]
ソーシャルメディアからのデータスクレイピングは、不正なデータの使用に関する懸念が高まっている。
データ中毒攻撃は、スクラップ対策として提案されている。
より広範なデータセットにアクセスせずに有毒なデータを生成できる自動回帰(AR)中毒を導入する。
論文 参考訳(メタデータ) (2022-06-08T06:24:51Z) - Federated Causal Discovery [74.37739054932733]
本稿では,DAG-Shared Federated Causal Discovery (DS-FCD) という勾配学習フレームワークを開発する。
ローカルデータに直接触れることなく因果グラフを学習し、データの不均一性を自然に扱うことができる。
合成および実世界の両方のデータセットに対する大規模な実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2021-12-07T08:04:12Z) - FedCom: A Byzantine-Robust Local Model Aggregation Rule Using Data
Commitment for Federated Learning [8.165895353387853]
フェデレーション学習は、複数のクライアントがプライベートデータを開示することなく、統計モデルを協調的にトレーニングできる。
ビザンツの労働者がデータ中毒とモデル中毒を発生させる可能性がある。
既存のByzantine-Robust FLスキームのほとんどは、いくつかの高度な毒殺攻撃に対して効果がないか、またはパブリックな検証データセットを集中化する必要がある。
暗号によるコミットメントの考え方を取り入れた、新しいビザンチン・ロバスト連合学習フレームワークであるFedComを提案する。
論文 参考訳(メタデータ) (2021-04-16T10:29:26Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Byzantine-Robust Learning on Heterogeneous Datasets via Bucketing [55.012801269326594]
ビザンチンの堅牢な分散学習では、中央サーバは、複数のワーカーに分散したデータよりも、機械学習モデルを訓練したい。
これらの労働者のごく一部は、所定のアルゴリズムから逸脱し、任意のメッセージを送ることができる。
本稿では,既存のロバストなアルゴリズムを無視可能な計算コストでヘテロジニアスなデータセットに適応させる,シンプルなバケット方式を提案する。
論文 参考訳(メタデータ) (2020-06-16T17:58:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。