論文の概要: Linear Scalarization for Byzantine-robust learning on non-IID data
- arxiv url: http://arxiv.org/abs/2210.08287v1
- Date: Sat, 15 Oct 2022 13:24:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 20:22:50.537126
- Title: Linear Scalarization for Byzantine-robust learning on non-IID data
- Title(参考訳): 非IIDデータに基づくビザンチンロバスト学習のための線形スカラー化
- Authors: Latifa Errami, El Houcine Bergou
- Abstract要約: クライアント間のデータが異種である場合,ビザンチン・ロバスト学習の問題点について検討する。
本研究では,非IID環境でのビザンチン攻撃を回避するため,線形スカラー化(LS)を有効活用する手法を提案する。
- 参考スコア(独自算出の注目度): 3.098066034546503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we study the problem of Byzantine-robust learning when data
among clients is heterogeneous. We focus on poisoning attacks targeting the
convergence of SGD. Although this problem has received great attention; the
main Byzantine defenses rely on the IID assumption causing them to fail when
data distribution is non-IID even with no attack. We propose the use of Linear
Scalarization (LS) as an enhancing method to enable current defenses to
circumvent Byzantine attacks in the non-IID setting. The LS method is based on
the incorporation of a trade-off vector that penalizes the suspected malicious
clients. Empirical analysis corroborates that the proposed LS variants are
viable in the IID setting. For mild to strong non-IID data splits, LS is either
comparable or outperforming current approaches under state-of-the-art Byzantine
attack scenarios.
- Abstract(参考訳): 本研究では,クライアント間のデータが不均一である場合のビザンチン・ロバスト学習の問題点について検討する。
我々はSGDの収束を狙った中毒攻撃に焦点を当てる。
この問題は大きな注目を集めているが、主要なビザンツ防衛隊はIDDの仮定に頼っており、データ配信が非IIDで攻撃を受けなくても失敗する。
非iid設定におけるビザンチン攻撃を回避するために,リニアスカラー化(ls)を用いた電流防御法を提案する。
LS法は、疑わしい悪意のあるクライアントを罰するトレードオフベクトルを組み込んだものである。
経験的分析は、提案されたLS変異体がIID設定で実現可能であることを裏付ける。
軽度から強力な非IIDデータ分割の場合、LSは最先端のByzantine攻撃シナリオの下での現在のアプローチに匹敵する、あるいは優れています。
関連論文リスト
- DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - An Experimental Study of Byzantine-Robust Aggregation Schemes in
Federated Learning [4.627944480085717]
ビザンチン・ロバスト・フェデレーション・ラーニング(Byzantine-robust Federated Learning)は、訓練過程におけるビザンチンの障害を軽減することを目的としている。
ビザンツのクライアントからの悪意のあるアップデートを防御するために、いくつかの堅牢なアグリゲーションスキームが提案されている。
連邦学習における2つの一般的なアルゴリズムを用いて, 異なる攻撃下でのビザンチン・ロバスト・アグリゲーション方式の実験的検討を行った。
論文 参考訳(メタデータ) (2023-02-14T16:36:38Z) - Byzantine-Robust Learning on Heterogeneous Data via Gradient Splitting [58.91947205027892]
フェデレーテッド・ラーニングはビザンツの攻撃に対する脆弱性を示している。
ビザンティン攻撃者は、任意の勾配を中央サーバに送ることで、グローバルモデルの収束と性能を破壊することができる。
アグレゲーション・ルール(AGR)は、ビザンツの攻撃から守るために提案されている。
論文 参考訳(メタデータ) (2023-02-13T03:31:50Z) - Byzantine-Robust Federated Learning via Credibility Assessment on
Non-IID Data [1.4146420810689422]
フェデレートラーニング(Federated Learning)は、リソース制約のあるエッジデバイスがモデルの共同学習を可能にする、新しいフレームワークである。
標準的な連邦学習はビザンツの攻撃に弱い。
非イドデータに対する信頼度評価によるフェデレーション学習のためのビザンチン・ロバストフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-06T12:18:02Z) - Learning from History for Byzantine Robust Optimization [52.68913869776858]
分散学習の重要性から,ビザンチンの堅牢性が近年注目されている。
既存のロバストアグリゲーションルールの多くは、ビザンチンの攻撃者がいなくても収束しない可能性がある。
論文 参考訳(メタデータ) (2020-12-18T16:22:32Z) - Defending Distributed Classifiers Against Data Poisoning Attacks [26.89258745198076]
サポートベクタマシン(SVM)は、ターゲットとするトレーニングデータ操作に対して脆弱である。
我々はこのような攻撃に対する抵抗を改善する新しい防御アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-08-21T03:11:23Z) - Byzantine-Robust Learning on Heterogeneous Datasets via Bucketing [55.012801269326594]
ビザンチンの堅牢な分散学習では、中央サーバは、複数のワーカーに分散したデータよりも、機械学習モデルを訓練したい。
これらの労働者のごく一部は、所定のアルゴリズムから逸脱し、任意のメッセージを送ることができる。
本稿では,既存のロバストなアルゴリズムを無視可能な計算コストでヘテロジニアスなデータセットに適応させる,シンプルなバケット方式を提案する。
論文 参考訳(メタデータ) (2020-06-16T17:58:53Z) - Federated Variance-Reduced Stochastic Gradient Descent with Robustness
to Byzantine Attacks [74.36161581953658]
本稿では、悪質なビザンツ攻撃が存在する場合のネットワーク上での学習のための分散有限サム最適化について論じる。
このような攻撃に対処するため、これまでのほとんどのレジリエントなアプローチは、勾配降下(SGD)と異なる頑健な集約ルールを組み合わせている。
本研究は,ネットワーク上の有限サム最適化を含むタスクを学習するための,ビザンチン攻撃耐性分散(Byrd-)SAGAアプローチを提案する。
論文 参考訳(メタデータ) (2019-12-29T19:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。