論文の概要: Poisoning Decentralized Collaborative Recommender System and Its Countermeasures
- arxiv url: http://arxiv.org/abs/2404.01177v1
- Date: Mon, 1 Apr 2024 15:30:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 22:05:48.892518
- Title: Poisoning Decentralized Collaborative Recommender System and Its Countermeasures
- Title(参考訳): 分散型協調型レコメンダシステムの導入とその対策
- Authors: Ruiqi Zheng, Liang Qu, Tong Chen, Kai Zheng, Yuhui Shi, Hongzhi Yin,
- Abstract要約: 我々はPAMN(Adaptive Malicious Neighbors)によるPoisoningという新たな攻撃方法を提案する。
PAMNは、トップKレコメンデーションを攻撃目標とすることで、ターゲットアイテムのランクを複数の敵で効果的に引き上げる。
DecRecsの脆弱性が明らかになったことで、ユーザーレベルの勾配クリッピングとスペーサー付き更新に基づく専用の防御機構が提案されている。
- 参考スコア(独自算出の注目度): 37.205493894131635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To make room for privacy and efficiency, the deployment of many recommender systems is experiencing a shift from central servers to personal devices, where the federated recommender systems (FedRecs) and decentralized collaborative recommender systems (DecRecs) are arguably the two most representative paradigms. While both leverage knowledge (e.g., gradients) sharing to facilitate learning local models, FedRecs rely on a central server to coordinate the optimization process, yet in DecRecs, the knowledge sharing directly happens between clients. Knowledge sharing also opens a backdoor for model poisoning attacks, where adversaries disguise themselves as benign clients and disseminate polluted knowledge to achieve malicious goals like promoting an item's exposure rate. Although research on such poisoning attacks provides valuable insights into finding security loopholes and corresponding countermeasures, existing attacks mostly focus on FedRecs, and are either inapplicable or ineffective for DecRecs. Compared with FedRecs where the tampered information can be universally distributed to all clients once uploaded to the cloud, each adversary in DecRecs can only communicate with neighbor clients of a small size, confining its impact to a limited range. To fill the gap, we present a novel attack method named Poisoning with Adaptive Malicious Neighbors (PAMN). With item promotion in top-K recommendation as the attack objective, PAMN effectively boosts target items' ranks with several adversaries that emulate benign clients and transfers adaptively crafted gradients conditioned on each adversary's neighbors. Moreover, with the vulnerabilities of DecRecs uncovered, a dedicated defensive mechanism based on user-level gradient clipping with sparsified updating is proposed. Extensive experiments demonstrate the effectiveness of the poisoning attack and the robustness of our defensive mechanism.
- Abstract(参考訳): プライバシと効率性を確保するため、多くのレコメンダシステムのデプロイは、中央サーバからパーソナルデバイスへのシフトを経験しており、フェデレーションされたレコメンダシステム(FedRecs)と分散化されたコラボレーティブレコメンダシステム(DecRecs)は、間違いなく2つの最も代表的なパラダイムである。
どちらも、ローカルモデルの学習を容易にするために知識(グラデーションなど)の共有を活用するが、FedRecsは最適化プロセスを調整するために中央サーバに依存しているが、DecRecsでは、知識の共有はクライアント間で直接行われる。
知識共有はまた、モデル中毒攻撃のバックドアも開き、敵は良心的なクライアントに変装し、汚染された知識を広めて、アイテムの露出率の促進のような悪意ある目標を達成する。
このような中毒攻撃の研究は、セキュリティの抜け穴やそれに対応する対策を見つけるための貴重な洞察を提供するが、既存の攻撃は主にFedRecsに焦点を当てており、DecRecsには適用できないか効果がない。
改ざんされた情報が一度クラウドにアップロードされたすべてのクライアントに普遍的に分散できるFedRecsと比較して、DecRecsの各敵は、小さなサイズの隣のクライアントとしか通信できないため、その影響範囲は限られている。
このギャップを埋めるために,PAMN(Adaptive Malicious Neighbors)を用いたPoisoningという新たな攻撃手法を提案する。
PAMNは、トップKレコメンデーションを攻撃目的として推奨することで、敵の顧客をエミュレートし、各敵の隣人に対して適応的に構築された勾配を伝達する複数の敵によって、ターゲットアイテムのランクを効果的に向上させる。
さらに、DecRecsの脆弱性が明らかになったことにより、スペーサー付きユーザレベルの勾配クリッピングに基づく専用の防御機構が提案されている。
広範囲にわたる実験により, 毒性攻撃の有効性と防御機構の堅牢性が実証された。
関連論文リスト
- DROP: Poison Dilution via Knowledge Distillation for Federated Learning [23.793474308133003]
フェデレートラーニングは、悪意のあるクライアントが悪意のあるアップデートを注入して、グローバルモデルの振る舞いに影響を与える、敵の操作に対して脆弱である。
本稿では,クラスタリングとアクティビティ追跡技術を組み合わせた新しい防御機構DROPと,クライアントからの良質な振る舞いの抽出について紹介する。
提案手法は,幅広い学習環境における既存の防御法と比較して,優れたロバスト性を示す。
論文 参考訳(メタデータ) (2025-02-10T20:15:43Z) - CP-Guard+: A New Paradigm for Malicious Agent Detection and Defense in Collaborative Perception [53.088988929450494]
協調知覚(CP)は、安全で自律的な運転のための有望な方法である。
本稿では,悪意のあるエージェントを機能レベルで効果的に識別する,悪意のあるエージェント検出のための新しいパラダイムを提案する。
また,CP-Guard+と呼ばれる堅牢な防御手法を開発し,良性の表現と悪質な特徴とのマージンを高める。
論文 参考訳(メタデータ) (2025-02-07T12:58:45Z) - Improving the Shortest Plank: Vulnerability-Aware Adversarial Training for Robust Recommender System [60.719158008403376]
VAT(Vulnerability-aware Adversarial Training)は、レコメンデーションシステムにおける中毒攻撃に対する防御を目的とした訓練である。
VATは、システムの適合度に基づいて、ユーザの脆弱性を推定するために、新たな脆弱性認識機能を採用している。
論文 参考訳(メタデータ) (2024-09-26T02:24:03Z) - ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - FedRecAttack: Model Poisoning Attack to Federated Recommendation [5.308983430479344]
フェデレーテッド・リコメンデーション(FR)は、ここ数年でかなりの人気と注目を集めている。
本稿では,対象項目の曝露率を高めることを目的としたモデル中毒攻撃であるFedRecAttackについて述べる。
ほとんどのレコメンデーションシナリオでは、プライベートなユーザとイテムのインタラクション(クリック、ウォッチ、購入など)を除いて、いくつかのインタラクションはパブリックである。
この時点で動機づけられたFedRecAttackでは、ユーザの特徴ベクトルを近似するために公開インタラクションを使用します。
論文 参考訳(メタデータ) (2022-04-01T05:18:47Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。