論文の概要: Preventing the Popular Item Embedding Based Attack in Federated Recommendations
- arxiv url: http://arxiv.org/abs/2502.12958v1
- Date: Tue, 18 Feb 2025 15:43:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:02:10.289297
- Title: Preventing the Popular Item Embedding Based Attack in Federated Recommendations
- Title(参考訳): フェデレーション・リコメンデーションにおけるポピュラーアイテムの埋め込みによる攻撃防止
- Authors: Jun Zhang, Huan Li, Dazhong Rong, Yan Zhao, Ke Chen, Lidan Shou,
- Abstract要約: PIECK(Popular Item Embedding based Attack)というモデル非依存かつ事前知識のない攻撃を考案する。
PIECKソリューションはアイテムの人気向上モジュールを使用し、ターゲットアイテムの埋め込みとマイニングされた人気アイテムを整列させてアイテム露出を増加させる。
次に、FRS性能を保ちながら、アイテムの人気向上とユーザ埋め込み近似を制約する2つの正規化用語を導入することで、新しい防衛手法を提案する。
- 参考スコア(独自算出の注目度): 18.48314841025746
- License:
- Abstract: Privacy concerns have led to the rise of federated recommender systems (FRS), which can create personalized models across distributed clients. However, FRS is vulnerable to poisoning attacks, where malicious users manipulate gradients to promote their target items intentionally. Existing attacks against FRS have limitations, as they depend on specific models and prior knowledge, restricting their real-world applicability. In our exploration of practical FRS vulnerabilities, we devise a model-agnostic and prior-knowledge-free attack, named PIECK (Popular Item Embedding based Attack). The core module of PIECK is popular item mining, which leverages embedding changes during FRS training to effectively identify the popular items. Built upon the core module, PIECK branches into two diverse solutions: The PIECKIPE solution employs an item popularity enhancement module, which aligns the embeddings of targeted items with the mined popular items to increase item exposure. The PIECKUEA further enhances the robustness of the attack by using a user embedding approximation module, which approximates private user embeddings using mined popular items. Upon identifying PIECK, we evaluate existing federated defense methods and find them ineffective against PIECK, as poisonous gradients inevitably overwhelm the cold target items. We then propose a novel defense method by introducing two regularization terms during user training, which constrain item popularity enhancement and user embedding approximation while preserving FRS performance. We evaluate PIECK and its defense across two base models, three real datasets, four top-tier attacks, and six general defense methods, affirming the efficacy of both PIECK and its defense.
- Abstract(参考訳): プライバシに関する懸念から、分散クライアント間でパーソナライズされたモデルを作成することのできるフェデレーションレコメンデータシステム(FRS)が台頭した。
しかし、FRSは悪意のあるユーザーが目的のアイテムを意図的に宣伝するために勾配を操作できる攻撃に対して脆弱である。
既存のFRSに対する攻撃は、特定のモデルや事前知識に依存し、現実の応用性を制限するため、制限がある。
実用的FRS脆弱性の探索において、PIECK(Popular Item Embedding based Attack)と呼ばれるモデルに依存しない事前知識のない攻撃を考案した。
PIECKのコアモジュールは人気のあるアイテムマイニングであり、FRSトレーニング中の埋め込み変更を活用して、人気のあるアイテムを効果的に識別する。
PIECKIPEソリューションでは、アイテムの人気向上モジュールを使用して、対象アイテムとマイニングされた人気アイテムの埋め込みを整合させてアイテム露出を増加させます。
PIECKUEAは、ユーザ埋め込み近似モジュールを使用して、マイニングされた人気アイテムを使用したプライベートユーザ埋め込みを近似することにより、攻撃の堅牢性をさらに向上する。
PIECKの同定に際し,既存の防寒法の評価とPIECKに対する防寒効果について検討した。
次に、FRS性能を保ちながら、アイテムの人気向上とユーザ埋め込み近似を制約する2つの正規化用語を導入することで、新しい防衛手法を提案する。
我々は,PIECKとその防御を2つのベースモデル,3つの実データセット,4つのトップレベル攻撃,および6つの一般的な防御手法で評価し,PIECKとその防御の有効性を確認した。
関連論文リスト
- Poisoning Federated Recommender Systems with Fake Users [48.70867241987739]
フェデレーテッド・レコメンデーションは、フェデレーテッド・ラーニングにおける顕著なユースケースである。
本稿では,攻撃対象のアイテムを宣伝するために,PisonFRSという偽ユーザによる新たな毒殺攻撃を導入する。
複数の実世界のデータセットに対する実験では、PoisonFRSが攻撃者-チョセンアイテムを真のユーザの大部分に効果的にプロモートできることが示されている。
論文 参考訳(メタデータ) (2024-02-18T16:34:12Z) - FedRDF: A Robust and Dynamic Aggregation Function against Poisoning
Attacks in Federated Learning [0.0]
Federated Learning(FL)は、集中型機械学習(ML)デプロイメントに関連する典型的なプライバシ問題に対する、有望なアプローチである。
そのよく知られた利点にもかかわらず、FLはビザンツの行動や毒殺攻撃のようなセキュリティ攻撃に弱い。
提案手法は各種モデル毒殺攻撃に対して試験され,最先端の凝集法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-15T16:42:04Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - FLEDGE: Ledger-based Federated Learning Resilient to Inference and
Backdoor Attacks [8.866045560761528]
フェデレートラーニング(Federated Learning, FL)は、複数のパーティ(あるいはクライアント)がプライベートデータを共有せずに、共同で機械学習モデルをトレーニングする分散学習プロセスである。
近年の研究では、FLに対する推論および中毒攻撃の有効性が示されている。
FLEDGEと呼ばれる台帳ベースのFLフレームワークは、当事者が行動に責任を負わせ、推論や毒殺攻撃を緩和するための合理的な効率性を実現する。
論文 参考訳(メタデータ) (2023-10-03T14:55:30Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z) - Towards Bidirectional Protection in Federated Learning [70.36925233356335]
F2ED-LEARNINGは、悪意のある集中型サーバとビザンティンの悪意のあるクライアントに対して双方向の防御を提供する。
F2ED-LEARNINGは各シャードの更新を安全に集約し、異なるシャードからの更新に対してFilterL2を起動する。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-02T19:37:02Z) - Attacking Black-box Recommendations via Copying Cross-domain User
Profiles [47.48722020494725]
本稿では,プロファイルを対象ドメインにコピーすることで,実際のユーザをソースドメインから活用するフレームワークを提案する。
CopyAttackの目標は、ターゲットドメイン内のユーザのTop-k$レコメンデーションリストにあるターゲットアイテムのヒット率を最大化することである。
論文 参考訳(メタデータ) (2020-05-17T02:10:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。