論文の概要: FedRecAttack: Model Poisoning Attack to Federated Recommendation
- arxiv url: http://arxiv.org/abs/2204.01499v1
- Date: Fri, 1 Apr 2022 05:18:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 16:57:22.904851
- Title: FedRecAttack: Model Poisoning Attack to Federated Recommendation
- Title(参考訳): fedrecattack:federated recommendationに対するモデル中毒攻撃
- Authors: Dazhong Rong, Shuai Ye, Ruoyan Zhao, Hon Ning Yuen, Jianhai Chen, and
Qinming He
- Abstract要約: フェデレーテッド・リコメンデーション(FR)は、ここ数年でかなりの人気と注目を集めている。
本稿では,対象項目の曝露率を高めることを目的としたモデル中毒攻撃であるFedRecAttackについて述べる。
ほとんどのレコメンデーションシナリオでは、プライベートなユーザとイテムのインタラクション(クリック、ウォッチ、購入など)を除いて、いくつかのインタラクションはパブリックである。
この時点で動機づけられたFedRecAttackでは、ユーザの特徴ベクトルを近似するために公開インタラクションを使用します。
- 参考スコア(独自算出の注目度): 5.308983430479344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Recommendation (FR) has received considerable popularity and
attention in the past few years. In FR, for each user, its feature vector and
interaction data are kept locally on its own client thus are private to others.
Without the access to above information, most existing poisoning attacks
against recommender systems or federated learning lose validity. Benifiting
from this characteristic, FR is commonly considered fairly secured. However, we
argue that there is still possible and necessary security improvement could be
made in FR. To prove our opinion, in this paper we present FedRecAttack, a
model poisoning attack to FR aiming to raise the exposure ratio of target
items. In most recommendation scenarios, apart from private user-item
interactions (e.g., clicks, watches and purchases), some interactions are
public (e.g., likes, follows and comments). Motivated by this point, in
FedRecAttack we make use of the public interactions to approximate users'
feature vectors, thereby attacker can generate poisoned gradients accordingly
and control malicious users to upload the poisoned gradients in a well-designed
way. To evaluate the effectiveness and side effects of FedRecAttack, we conduct
extensive experiments on three real-world datasets of different sizes from two
completely different scenarios. Experimental results demonstrate that our
proposed FedRecAttack achieves the state-of-the-art effectiveness while its
side effects are negligible. Moreover, even with small proportion (3%) of
malicious users and small proportion (1%) of public interactions, FedRecAttack
remains highly effective, which reveals that FR is more vulnerable to attack
than people commonly considered.
- Abstract(参考訳): フェデレーテッド・リコメンデーション(FR)は、ここ数年でかなりの人気と注目を集めている。
FRでは、各ユーザに対して、その特徴ベクトルとインタラクションデータは、自身のクライアントでローカルに保持されるため、他のユーザにはプライベートである。
上記の情報にアクセスできないと、レコメンダシステムや連合学習に対する既存の中毒攻撃は有効性を失う。
この特徴から、FRは一般にかなり安全であると考えられている。
しかし、FRには依然として可能であり、必要なセキュリティ改善が可能であると論じる。
本稿では,対象項目の曝露率を高めることを目的としたモデル中毒攻撃であるFedRecAttackをFRに提示する。
ほとんどのレコメンデーションシナリオでは、プライベートなユーザとイテムのインタラクション(クリック、ウォッチ、購入など)を除いて、いくつかのインタラクションはパブリックである(例えば、フォローとコメント)。
この点に動機づけられ、feedrecattackでは、公開インタラクションを使用してユーザの機能ベクターを近似することで、攻撃者が有毒な勾配を生成し、悪意のあるユーザーがよく設計された方法で有毒な勾配をアップロードするように制御することができる。
fedrecattackの有効性と副作用を評価するため、2つの全く異なるシナリオから異なるサイズの3つの実世界のデータセットを広範囲に実験した。
実験の結果,feedrecattackの副作用は無視できるが,最先端の有効性が得られた。
さらに、悪意のあるユーザー(3%)と公的なやりとり(1%)の少ない割合(1%)にもかかわらず、feedrecattackは非常に効果的であり、frは一般に検討された人々よりも攻撃に対して脆弱であることを示している。
関連論文リスト
- Poisoning Decentralized Collaborative Recommender System and Its Countermeasures [37.205493894131635]
我々はPAMN(Adaptive Malicious Neighbors)によるPoisoningという新たな攻撃方法を提案する。
PAMNは、トップKレコメンデーションを攻撃目標とすることで、ターゲットアイテムのランクを複数の敵で効果的に引き上げる。
DecRecsの脆弱性が明らかになったことで、ユーザーレベルの勾配クリッピングとスペーサー付き更新に基づく専用の防御機構が提案されている。
論文 参考訳(メタデータ) (2024-04-01T15:30:02Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - RECESS Vaccine for Federated Learning: Proactive Defense Against Model Poisoning Attacks [20.55681622921858]
モデル中毒は、フェデレートラーニング(FL)の適用を著しく阻害する
本研究では,モデル中毒に対するRECESSという新しいプロアクティブ・ディフェンスを提案する。
各イテレーションをスコアする従来の方法とは異なり、RECESSはクライアントのパフォーマンス相関を複数のイテレーションで考慮し、信頼スコアを見積もる。
論文 参考訳(メタデータ) (2023-10-09T06:09:01Z) - FLEDGE: Ledger-based Federated Learning Resilient to Inference and
Backdoor Attacks [8.866045560761528]
フェデレートラーニング(Federated Learning, FL)は、複数のパーティ(あるいはクライアント)がプライベートデータを共有せずに、共同で機械学習モデルをトレーニングする分散学習プロセスである。
近年の研究では、FLに対する推論および中毒攻撃の有効性が示されている。
FLEDGEと呼ばれる台帳ベースのFLフレームワークは、当事者が行動に責任を負わせ、推論や毒殺攻撃を緩和するための合理的な効率性を実現する。
論文 参考訳(メタデータ) (2023-10-03T14:55:30Z) - FedVal: Different good or different bad in federated learning [9.558549875692808]
フェデレート・ラーニング(FL)システムは悪意のあるアクターからの攻撃を受けやすい。
FLは、異なる人口集団の公正なパフォーマンスを保証するなど、グループの偏見に対処する上で、新たな課題を提起する。
このようなバイアスに対処するために使用される従来の方法は、FLシステムが持っていないデータへの集中的なアクセスを必要とする。
我々は、クライアントからの追加情報を必要としない堅牢性と公正性の両方に対して、新しいアプローチであるFedValを提案する。
論文 参考訳(メタデータ) (2023-06-06T22:11:13Z) - Debiasing Recommendation by Learning Identifiable Latent Confounders [49.16119112336605]
コンバウンディングバイアスは、ユーザの露出とフィードバックの両方に影響を与える未測定変数の存在によって生じる。
既存の手法では,(1) 未測定変数について不確定な仮定を行うか,(2) 潜伏した共同創設者を直接ユーザの露出から推測する。
本稿では、上記の非識別問題の解決にプロキシ変数の集合を利用する新しい方法、すなわち、識別可能なデコノウ(iDCF)を提案する。
論文 参考訳(メタデータ) (2023-02-10T05:10:26Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Rethinking Missing Data: Aleatoric Uncertainty-Aware Recommendation [59.500347564280204]
本稿では, Aleatoric Uncertainty-aware Recommendation (AUR) フレームワークを提案する。
AURは、新しい不確実性推定器と通常のレコメンデータモデルで構成されている。
誤ラベルの可能性がペアの可能性を反映しているため、AURは不確実性に応じてレコメンデーションを行う。
論文 参考訳(メタデータ) (2022-09-22T04:32:51Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。