論文の概要: Robust Federated Recommendation System
- arxiv url: http://arxiv.org/abs/2006.08259v1
- Date: Mon, 15 Jun 2020 09:54:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 02:56:31.735806
- Title: Robust Federated Recommendation System
- Title(参考訳): ロバスト連合推薦システム
- Authors: Chen Chen, Jingfeng Zhang, Anthony K. H. Tung, Mohan Kankanhalli, Gang
Chen
- Abstract要約: フェデレートされたレコメンデーションシステムは、ユーザのプライベートデータを収集することなく、優れたパフォーマンスを提供できる。
それらは、パフォーマンスを低下させるような、低コストの毒殺攻撃の影響を受けやすい。
我々は、ビザンツのクライアントが優勢な毒殺攻撃に対して頑健な、新しいフェデレーションレコメンデーション技術を開発した。
- 参考スコア(独自算出の注目度): 19.23641083721264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated recommendation systems can provide good performance without
collecting users' private data, making them attractive. However, they are
susceptible to low-cost poisoning attacks that can degrade their performance.
In this paper, we develop a novel federated recommendation technique that is
robust against the poisoning attack where Byzantine clients prevail. We argue
that the key to Byzantine detection is monitoring of gradients of the model
parameters of clients. We then propose a robust learning strategy where instead
of using model parameters, the central server computes and utilizes the
gradients to filter out Byzantine clients. Theoretically, we justify our robust
learning strategy by our proposed definition of Byzantine resilience.
Empirically, we confirm the efficacy of our robust learning strategy employing
four datasets in a federated recommendation system.
- Abstract(参考訳): フェデレートされたレコメンデーションシステムは、ユーザのプライベートデータを収集することなく、優れたパフォーマンスを提供できる。
しかし、その性能を低下させる低コストの中毒攻撃の影響を受けやすい。
本稿では,ビザンツのクライアントが優勢な中毒攻撃に対して頑健なフェデレーション推奨手法を開発した。
ビザンチン検出の鍵は、クライアントのモデルパラメータの勾配をモニタリングすることだと我々は主張する。
次に、モデルパラメータの代わりに中央サーバが計算し、勾配を利用してビザンティンのクライアントをフィルタリングする頑健な学習戦略を提案する。
理論的には,提案するビザンチンレジリエンスの定義により,ロバストな学習戦略を正当化する。
フェデレーションレコメンデーションシステムにおいて,4つのデータセットを用いたロバストな学習戦略の有効性を実証した。
関連論文リスト
- On the Byzantine-Resilience of Distillation-Based Federated Learning [22.8142632251694]
ビザンチン環境下でのフェデレートラーニング(FL)アルゴリズムの性能について検討した。
KDをベースとしたFLアルゴリズムは極めて弾力性があり、ビザンチンクライアントが学習プロセスにどのように影響するかを分析する。
KDに基づくFLアルゴリズムのビザンチンレジリエンスを向上させる新しい防御法を提案する。
論文 参考訳(メタデータ) (2024-02-19T16:26:40Z) - Reinforcement Learning as a Catalyst for Robust and Fair Federated
Learning: Deciphering the Dynamics of Client Contributions [6.318638597489423]
Reinforcement Federated Learning (RFL)は、深い強化学習を活用して、集約中のクライアントコントリビューションを適応的に最適化する新しいフレームワークである。
堅牢性に関しては、RFLは同等の公平性を維持しつつ、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-02-08T10:22:12Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Byzantine-Robust Federated Learning with Variance Reduction and
Differential Privacy [6.343100139647636]
フェデレートラーニング(FL)は、モデルトレーニング中にデータのプライバシを保存するように設計されている。
FLはプライバシー攻撃やビザンツ攻撃に弱い。
本稿では,厳格なプライバシを保証するとともに,ビザンチン攻撃に対するシステムの堅牢性を同時に向上する新しいFLスキームを提案する。
論文 参考訳(メタデータ) (2023-09-07T01:39:02Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - SureFED: Robust Federated Learning via Uncertainty-Aware Inward and
Outward Inspection [29.491675102478798]
本稿では,堅牢なフェデレーション学習のための新しいフレームワークであるSureFEDを紹介する。
SureFEDは、良識のあるクライアントのローカル情報を使って信頼を確立する。
理論的には、データとモデル中毒攻撃に対するアルゴリズムの堅牢性を証明する。
論文 参考訳(メタデータ) (2023-08-04T23:51:05Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Robust Federated Learning via Over-The-Air Computation [48.47690125123958]
オーバー・ザ・エア計算によるモデル更新の簡易な平均化により、学習タスクは悪意のあるクライアントのローカルモデル更新のランダムまたは意図した変更に対して脆弱になる。
本稿では,このような攻撃に対して,フェデレート学習のためのオーバー・ザ・エア計算の利点を保ちながら,ロバストな伝達と集約の枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T19:21:21Z) - Byzantine-resilient Decentralized Stochastic Gradient Descent [85.15773446094576]
分散学習システムのビザンチンレジリエンスに関する詳細な研究について述べる。
ビザンチンフォールトトレランスを用いた分散学習を支援する新しいアルゴリズムUBARを提案する。
論文 参考訳(メタデータ) (2020-02-20T05:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。