論文の概要: Covert Model Poisoning Against Federated Learning: Algorithm Design and
Optimization
- arxiv url: http://arxiv.org/abs/2101.11799v1
- Date: Thu, 28 Jan 2021 03:28:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 12:07:03.043572
- Title: Covert Model Poisoning Against Federated Learning: Algorithm Design and
Optimization
- Title(参考訳): フェデレーション学習に対する隠れモデル中毒:アルゴリズム設計と最適化
- Authors: Kang Wei, Jun Li, Ming Ding, Chuan Ma, Yo-Seb Jeon and H. Vincent Poor
- Abstract要約: フェデレーテッド・ラーニング(FL)はパラメータ伝達中にFLモデルに対する外部攻撃に対して脆弱である。
本稿では,最先端の防御アグリゲーション機構に対処する有効なMPアルゴリズムを提案する。
実験の結果,提案したCMPアルゴリズムは,既存の攻撃機構よりも効果的で,かなり優れていることが示された。
- 参考スコア(独自算出の注目度): 76.51980153902774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL), as a type of distributed machine learning
frameworks, is vulnerable to external attacks on FL models during parameters
transmissions. An attacker in FL may control a number of participant clients,
and purposely craft the uploaded model parameters to manipulate system outputs,
namely, model poisoning (MP). In this paper, we aim to propose effective MP
algorithms to combat state-of-the-art defensive aggregation mechanisms (e.g.,
Krum and Trimmed mean) implemented at the server without being noticed, i.e.,
covert MP (CMP). Specifically, we first formulate the MP as an optimization
problem by minimizing the Euclidean distance between the manipulated model and
designated one, constrained by a defensive aggregation rule. Then, we develop
CMP algorithms against different defensive mechanisms based on the solutions of
their corresponding optimization problems. Furthermore, to reduce the
optimization complexity, we propose low complexity CMP algorithms with a slight
performance degradation. In the case that the attacker does not know the
defensive aggregation mechanism, we design a blind CMP algorithm, in which the
manipulated model will be adjusted properly according to the aggregated model
generated by the unknown defensive aggregation. Our experimental results
demonstrate that the proposed CMP algorithms are effective and substantially
outperform existing attack mechanisms.
- Abstract(参考訳): 分散機械学習フレームワークの一種である連合学習(federated learning, fl)は、パラメータ伝達中のflモデルの外部攻撃に対して脆弱である。
FLの攻撃者は、多数のクライアントを制御でき、アップロードされたモデルパラメータを意図的に作成して、システム出力、すなわちモデル中毒(MP)を操作できる。
本稿では,サーバに実装された最先端の防御アグリゲーション機構(例えば,Krum と Trimmed の平均値)に対して,隠蔽MP (CMP) に気付かない効果的なMPアルゴリズムを提案する。
具体的には,制御されたモデルと指定されたモデルとのユークリッド距離を最小化することにより,まずMPを最適化問題として定式化する。
そこで我々は,対応する最適化問題の解に基づいて,異なる防御機構に対するCMPアルゴリズムを開発した。
さらに,最適化の複雑さを低減するため,性能劣化の少ない低複雑性CMPアルゴリズムを提案する。
攻撃者が防御アグリゲーション機構を知らない場合、未知の防御アグリゲーションによって生成された集約モデルに従って操作されたモデルを適切に調整するブラインドCMPアルゴリズムを設計する。
実験の結果,提案したCMPアルゴリズムは,既存の攻撃機構よりも効果的で,かなり優れていることが示された。
関連論文リスト
- Deep learning enhanced mixed integer optimization: Learning to reduce model dimensionality [0.0]
この研究は、Mixed-Integer Programmingに固有の計算複雑性に対処するフレームワークを導入する。
ディープラーニングを利用することで、MIPインスタンス間の共通構造を特定し、活用する問題固有モデルを構築する。
本稿では,モデルの堅牢性と一般化性を高める合成データを生成するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-17T19:15:13Z) - Non-stationary Reinforcement Learning under General Function
Approximation [60.430936031067006]
まず,非定常MDPに対する動的ベルマンエルダー次元(DBE)と呼ばれる新しい複雑性指標を提案する。
提案する複雑性指標に基づいて,SW-OPEAと呼ばれる新しい信頼度セットに基づくモデルフリーアルゴリズムを提案する。
SW-OPEAは,変動予算がそれほど大きくない限り,有効に有効であることを示す。
論文 参考訳(メタデータ) (2023-06-01T16:19:37Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Enabling Lightweight Fine-tuning for Pre-trained Language Model
Compression based on Matrix Product Operators [31.461762905053426]
本稿では,量子多体物理学の行列積演算子(MPO)に基づく,新しい事前学習言語モデル(PLM)圧縮手法を提案する。
提案手法は, より軽量なネットワークを導出し, 微調整を行うパラメータを大幅に削減する, 汎用的な手法でオリジナルのPLMや圧縮PLMに適用することができる。
論文 参考訳(メタデータ) (2021-06-04T01:50:15Z) - Preserved central model for faster bidirectional compression in
distributed settings [12.323007278097249]
我々は,分散学習問題における通信制約に中央サーバで対処する新しい手法を開発した。
本研究では,双方向圧縮を行い,(ローカルワーカーから中央サーバへの)アップリンクのみを用いたアルゴリズムと同じ収束率を達成する新しいアルゴリズムを提案し,解析する。
論文 参考訳(メタデータ) (2021-02-24T19:48:20Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。