論文の概要: Meta Federated Learning
- arxiv url: http://arxiv.org/abs/2102.05561v1
- Date: Wed, 10 Feb 2021 16:48:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 14:22:28.105193
- Title: Meta Federated Learning
- Title(参考訳): メタフェデレーション学習
- Authors: Omid Aramoon, Pin-Yu Chen, Gang Qu, Yuan Tian
- Abstract要約: フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
- 参考スコア(独自算出の注目度): 57.52103907134841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to its distributed methodology alongside its privacy-preserving features,
Federated Learning (FL) is vulnerable to training time adversarial attacks. In
this study, our focus is on backdoor attacks in which the adversary's goal is
to cause targeted misclassifications for inputs embedded with an adversarial
trigger while maintaining an acceptable performance on the main learning task
at hand. Contemporary defenses against backdoor attacks in federated learning
require direct access to each individual client's update which is not feasible
in recent FL settings where Secure Aggregation is deployed. In this study, we
seek to answer the following question, Is it possible to defend against
backdoor attacks when secure aggregation is in place?, a question that has not
been addressed by prior arts. To this end, we propose Meta Federated Learning
(Meta-FL), a novel variant of federated learning which not only is compatible
with secure aggregation protocol but also facilitates defense against backdoor
attacks. We perform a systematic evaluation of Meta-FL on two classification
datasets: SVHN and GTSRB. The results show that Meta-FL not only achieves
better utility than classic FL, but also enhances the performance of
contemporary defenses in terms of robustness against adversarial attacks.
- Abstract(参考訳): プライバシ保護機能を備えた分散方法論のため、フェデレートラーニング(FL)は、時間的敵攻撃のトレーニングに脆弱である。
本研究では,本研究の目的は,主学習タスクにおいて許容可能な性能を維持しつつ,敵の学習トリガに埋め込まれた入力に対して,目標の誤分類を引き起こすことにある。
連合学習におけるバックドア攻撃に対する現代の防御は、セキュアアグリゲーションが展開される最近のfl設定では実現不可能な個々のクライアントの更新に直接アクセスする必要がある。
本研究では,セキュアなアグリゲーションが実施されている場合,バックドアアタックを防御することは可能か,という問いに答える。
そこで本研究では,セキュアアグリゲーションプロトコルに適合するだけでなく,バックドア攻撃に対する防御も容易な,新しいフェデレーション学習であるmeta federated learning(meta-fl)を提案する。
SVHNとGTSRBの2つの分類データセットでMeta-FLの体系的な評価を行います。
その結果,Meta-FLは従来のFLよりも有効性が高いだけでなく,敵攻撃に対する堅牢性も向上していることがわかった。
関連論文リスト
- Non-Cooperative Backdoor Attacks in Federated Learning: A New Threat Landscape [7.00762739959285]
プライバシ保護モデルトレーニングのためのフェデレートラーニング(FL)は、バックドア攻撃の影響を受けやすいままである。
本研究は,発展途上のFL景観におけるバックドア攻撃に対する堅牢な防御の必要性を強調した。
論文 参考訳(メタデータ) (2024-07-05T22:03:13Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - Learning to Backdoor Federated Learning [9.046972927978997]
FL(Federated Learning)システムでは、悪意のある参加者がバックドアを集約されたモデルに簡単に埋め込むことができる。
一般的な強化学習に基づくバックドアアタックフレームワークを提案する。
我々のフレームワークは適応性と柔軟性があり、最先端の防御の下でも強力な攻撃性能と耐久性を実現する。
論文 参考訳(メタデータ) (2023-03-06T17:47:04Z) - Revisiting Personalized Federated Learning: Robustness Against Backdoor
Attacks [53.81129518924231]
pFLフレームワークにおけるバックドア攻撃の最初の研究を行う。
モデル共有部分を持つpFL法は,バックドア攻撃に対するロバスト性を大幅に向上させることができることを示す。
本稿では,バックドア攻撃に対する防御性能を実証的に向上する軽量防御手法Simple-Tuningを提案する。
論文 参考訳(メタデータ) (2023-02-03T11:58:14Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Defending Label Inference and Backdoor Attacks in Vertical Federated
Learning [11.319694528089773]
共同学習では、好奇心が強いパリティは正直かもしれないが、推論攻撃を通じて他人の個人データを推測しようとしている。
本稿では,サンプルごとの勾配から,プライベートラベルを再構築可能であることを示す。
本稿では、オートエンコーダとエントロピー正規化に基づく、混乱型オートエンコーダ(CoAE)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-10T09:32:09Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Universal Adversarial Training with Class-Wise Perturbations [78.05383266222285]
敵の訓練は 敵の攻撃を防御するために 最も広く使われる方法です
この作業では、UAPがすべてのクラスを等しく攻撃しないことがわかります。
我々は,対人訓練におけるクラスワイドUAPの利用を提案することで,SOTA UATを改善した。
論文 参考訳(メタデータ) (2021-04-07T09:05:49Z) - Dynamic backdoor attacks against federated learning [0.5482532589225553]
Federated Learning(FL)は、データプライバシとセキュリティを損なうことなく、何百万人もの参加者が協力してモデルをトレーニングできる、新しい機械学習フレームワークである。
本稿では、FL設定下での動的バックドア攻撃に着目し、敵の目標は、ターゲットタスクにおけるモデルの性能を低下させることである。
我々の知る限りでは、FL設定下での動的バックドア攻撃の研究に焦点を当てた最初の論文である。
論文 参考訳(メタデータ) (2020-11-15T01:32:58Z) - Defending against Backdoors in Federated Learning with Robust Learning
Rate [25.74681620689152]
フェデレートラーニング(FL)は、エージェントの集合が、潜在的に敏感なデータを共有せずに、協調的にモデルをトレーニングすることを可能にする。
バックドア攻撃において、敵はトレーニング中にモデルにバックドア機能を埋め込もうとする。
FLプロトコルの変更を最小限に抑える軽量ディフェンスを提案する。
論文 参考訳(メタデータ) (2020-07-07T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。