論文の概要: Rethinking Byzantine Robustness in Federated Recommendation from Sparse Aggregation Perspective
- arxiv url: http://arxiv.org/abs/2501.03301v1
- Date: Mon, 06 Jan 2025 15:19:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:50:46.732371
- Title: Rethinking Byzantine Robustness in Federated Recommendation from Sparse Aggregation Perspective
- Title(参考訳): スパースアグリゲーションの観点からのフェデレーション勧告におけるビザンチンロバスト性の再考
- Authors: Zhongjian Zhang, Mengmei Zhang, Xiao Wang, Lingjuan Lyu, Bo Yan, Junping Du, Chuan Shi,
- Abstract要約: フェデレーションラーニング(FL)に基づいたフェデレーションレコメンデーション(FR)が出現し、個人データをローカルクライアントに保持し、モデルを協調的に更新する。
FR には独自のスパース集約機構があり、各項目の埋め込みは、一般の FL の密集集合において、完全なクライアントではなく、部分的なクライアントによって更新される。
本稿では,単一項目の集約を最小の実行単位として定義することにより,スパースアグリゲーションの下でのビザンチンのロバスト性を再構成する。
本研究では,スパースアグリゲーションの脆弱性を悪用し,敵の知識と能力に沿って分類する,Sp attackという効果的な攻撃戦略のファミリーを提案する。
- 参考スコア(独自算出の注目度): 65.65471972217814
- License:
- Abstract: To preserve user privacy in recommender systems, federated recommendation (FR) based on federated learning (FL) emerges, keeping the personal data on the local client and updating a model collaboratively. Unlike FL, FR has a unique sparse aggregation mechanism, where the embedding of each item is updated by only partial clients, instead of full clients in a dense aggregation of general FL. Recently, as an essential principle of FL, model security has received increasing attention, especially for Byzantine attacks, where malicious clients can send arbitrary updates. The problem of exploring the Byzantine robustness of FR is particularly critical since in the domains applying FR, e.g., e-commerce, malicious clients can be injected easily by registering new accounts. However, existing Byzantine works neglect the unique sparse aggregation of FR, making them unsuitable for our problem. Thus, we make the first effort to investigate Byzantine attacks on FR from the perspective of sparse aggregation, which is non-trivial: it is not clear how to define Byzantine robustness under sparse aggregations and design Byzantine attacks under limited knowledge/capability. In this paper, we reformulate the Byzantine robustness under sparse aggregation by defining the aggregation for a single item as the smallest execution unit. Then we propose a family of effective attack strategies, named Spattack, which exploit the vulnerability in sparse aggregation and are categorized along the adversary's knowledge and capability. Extensive experimental results demonstrate that Spattack can effectively prevent convergence and even break down defenses under a few malicious clients, raising alarms for securing FR systems.
- Abstract(参考訳): ユーザのプライバシをレコメンデーションシステムで保持するために、フェデレーションラーニング(FL)に基づくフェデレーションレコメンデーション(FR)が出現し、個人データをローカルクライアントに保持し、協調的にモデルを更新する。
FLとは異なり、FRは独自のスパースアグリゲーション機構を持ち、各項目の埋め込みは、一般のFLの密集集約において完全なクライアントではなく、部分的なクライアントによって更新される。
近年、FLの本質的な原則として、特に悪意のあるクライアントが任意のアップデートを送信できるビザンチン攻撃において、モデルセキュリティが注目されている。
FRの適用ドメイン、例えばeコマース、悪意のあるクライアントは、新しいアカウントを登録することで簡単に注入できるため、FRのビザンティンロバスト性を探索する問題は特に重要である。
しかし、既存のビザンティンの研究はFRの特異なスパース集合を無視しており、我々の問題には適さない。
そこで我々は,スパースアグリゲーションの観点からビザンツのFRに対する攻撃を調査する最初の試みを行うが,これは非自明なことであり,スパースアグリゲーションの下でビザンツのロバスト性を定義し,知識・能力に制限のあるビザンツの攻撃を設計する方法は明確ではない。
本稿では,単一項目の集約を最小の実行単位として定義することにより,スパースアグリゲーションの下でのビザンチンのロバスト性を再構成する。
そこで我々は,スパースアグリゲーションの脆弱性を悪用し,敵の知識と能力に沿って分類する,Sp attackという効果的な攻撃戦略のファミリーを提案する。
大規模な実験結果から、Sp attackは収束を効果的に防ぎ、悪意のあるクライアント数名による防御を壊すことさえ可能であり、FRシステムを保護するためのアラームを発生させる。
関連論文リスト
- Do We Really Need to Design New Byzantine-robust Aggregation Rules? [9.709243052112921]
フェデレートラーニング(FL)は、複数のクライアントがサーバを通じてグローバル機械学習モデルを協調的にトレーニングすることを可能にする。
FLの分散化の側面は、悪意のあるクライアントがグローバルモデルを操作できるような、有害な攻撃の影響を受けやすい。
我々は、毒殺に対する新しい防御機構であるFoundationFLを提示する。
論文 参考訳(メタデータ) (2025-01-29T02:28:03Z) - FedCAP: Robust Federated Learning via Customized Aggregation and Personalization [13.17735010891312]
フェデレートラーニング(FL)は、様々なプライバシー保護シナリオに適用されている。
我々はデータ不均一性とビザンチン攻撃に対する堅牢なFLフレームワークであるFedCAPを提案する。
我々は,FedCAPがいくつかの非IID環境において良好に機能し,連続的な毒殺攻撃下で強い堅牢性を示すことを示す。
論文 参考訳(メタデータ) (2024-10-16T23:01:22Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Certifiably Byzantine-Robust Federated Conformal Prediction [49.23374238798428]
本稿では,悪意のあるクライアントに対する堅牢な共形予測を行う新しいフレームワークRob-FCPを提案する。
我々は、さまざまなビザンチン攻撃の下で、悪意のあるクライアントの多様な割合に対するRob-FCPの堅牢性を実証的に実証した。
論文 参考訳(メタデータ) (2024-06-04T04:43:30Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - An Experimental Study of Byzantine-Robust Aggregation Schemes in
Federated Learning [4.627944480085717]
ビザンチン・ロバスト・フェデレーション・ラーニング(Byzantine-robust Federated Learning)は、訓練過程におけるビザンチンの障害を軽減することを目的としている。
ビザンツのクライアントからの悪意のあるアップデートを防御するために、いくつかの堅牢なアグリゲーションスキームが提案されている。
連邦学習における2つの一般的なアルゴリズムを用いて, 異なる攻撃下でのビザンチン・ロバスト・アグリゲーション方式の実験的検討を行った。
論文 参考訳(メタデータ) (2023-02-14T16:36:38Z) - A Secure Federated Learning Framework for Residential Short Term Load
Forecasting [1.1254693939127909]
Federated Learning(FL)は、短期的な負荷予測のためにプライベートな生データを公開せずに、モデルの協調的な学習を可能にする機械学習の代替手段である。
標準FLは、障害や悪意のあるクライアントによって実行されるビザンチン攻撃として知られる、難解なサイバー脅威に対して、依然として脆弱である。
我々は、FLモデルとアーキテクチャのセキュリティを保護しつつ、個々のスマートメーターのデータのプライバシを保証する、最先端のプライベートなFLベースのフレームワークを開発する。
論文 参考訳(メタデータ) (2022-09-29T04:36:16Z) - MUDGUARD: Taming Malicious Majorities in Federated Learning using
Privacy-Preserving Byzantine-Robust Clustering [34.429892915267686]
Byzantine-robust Federated Learning (FL)は、悪意のあるクライアントに対抗し、攻撃の成功率を極端に低く保ちながら、正確なグローバルモデルをトレーニングすることを目的としている。
しかし、既存のシステムのほとんどは、クライアントが正直な場合にのみ堅牢である。
本稿では,サーバ側とクライアント側の両方で悪意あるマイノリティの求職者多数で運用可能な,ビザンチン・ロバスト・プライバシ保護型FLシステム MUDGUARD を提案する。
論文 参考訳(メタデータ) (2022-08-22T09:17:58Z) - Robust Quantity-Aware Aggregation for Federated Learning [72.59915691824624]
悪意のあるクライアントは、モデル更新を害し、モデルアグリゲーションにおけるモデル更新の影響を増幅するために大量の要求を行う。
FLの既存の防御メソッドは、悪意のあるモデル更新を処理する一方で、すべての量の良性を扱うか、単にすべてのクライアントの量を無視/停止するだけである。
本稿では,フェデレーション学習のためのロバストな量認識アグリゲーションアルゴリズムであるFedRAを提案し,局所的なデータ量を認識してアグリゲーションを行う。
論文 参考訳(メタデータ) (2022-05-22T15:13:23Z) - Learning from History for Byzantine Robust Optimization [52.68913869776858]
分散学習の重要性から,ビザンチンの堅牢性が近年注目されている。
既存のロバストアグリゲーションルールの多くは、ビザンチンの攻撃者がいなくても収束しない可能性がある。
論文 参考訳(メタデータ) (2020-12-18T16:22:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。