論文の概要: FedRecAttack: Model Poisoning Attack to Federated Recommendation
- arxiv url: http://arxiv.org/abs/2204.01499v1
- Date: Fri, 1 Apr 2022 05:18:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 16:57:22.904851
- Title: FedRecAttack: Model Poisoning Attack to Federated Recommendation
- Title(参考訳): fedrecattack:federated recommendationに対するモデル中毒攻撃
- Authors: Dazhong Rong, Shuai Ye, Ruoyan Zhao, Hon Ning Yuen, Jianhai Chen, and
Qinming He
- Abstract要約: フェデレーテッド・リコメンデーション(FR)は、ここ数年でかなりの人気と注目を集めている。
本稿では,対象項目の曝露率を高めることを目的としたモデル中毒攻撃であるFedRecAttackについて述べる。
ほとんどのレコメンデーションシナリオでは、プライベートなユーザとイテムのインタラクション(クリック、ウォッチ、購入など)を除いて、いくつかのインタラクションはパブリックである。
この時点で動機づけられたFedRecAttackでは、ユーザの特徴ベクトルを近似するために公開インタラクションを使用します。
- 参考スコア(独自算出の注目度): 5.308983430479344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Recommendation (FR) has received considerable popularity and
attention in the past few years. In FR, for each user, its feature vector and
interaction data are kept locally on its own client thus are private to others.
Without the access to above information, most existing poisoning attacks
against recommender systems or federated learning lose validity. Benifiting
from this characteristic, FR is commonly considered fairly secured. However, we
argue that there is still possible and necessary security improvement could be
made in FR. To prove our opinion, in this paper we present FedRecAttack, a
model poisoning attack to FR aiming to raise the exposure ratio of target
items. In most recommendation scenarios, apart from private user-item
interactions (e.g., clicks, watches and purchases), some interactions are
public (e.g., likes, follows and comments). Motivated by this point, in
FedRecAttack we make use of the public interactions to approximate users'
feature vectors, thereby attacker can generate poisoned gradients accordingly
and control malicious users to upload the poisoned gradients in a well-designed
way. To evaluate the effectiveness and side effects of FedRecAttack, we conduct
extensive experiments on three real-world datasets of different sizes from two
completely different scenarios. Experimental results demonstrate that our
proposed FedRecAttack achieves the state-of-the-art effectiveness while its
side effects are negligible. Moreover, even with small proportion (3%) of
malicious users and small proportion (1%) of public interactions, FedRecAttack
remains highly effective, which reveals that FR is more vulnerable to attack
than people commonly considered.
- Abstract(参考訳): フェデレーテッド・リコメンデーション(FR)は、ここ数年でかなりの人気と注目を集めている。
FRでは、各ユーザに対して、その特徴ベクトルとインタラクションデータは、自身のクライアントでローカルに保持されるため、他のユーザにはプライベートである。
上記の情報にアクセスできないと、レコメンダシステムや連合学習に対する既存の中毒攻撃は有効性を失う。
この特徴から、FRは一般にかなり安全であると考えられている。
しかし、FRには依然として可能であり、必要なセキュリティ改善が可能であると論じる。
本稿では,対象項目の曝露率を高めることを目的としたモデル中毒攻撃であるFedRecAttackをFRに提示する。
ほとんどのレコメンデーションシナリオでは、プライベートなユーザとイテムのインタラクション(クリック、ウォッチ、購入など)を除いて、いくつかのインタラクションはパブリックである(例えば、フォローとコメント)。
この点に動機づけられ、feedrecattackでは、公開インタラクションを使用してユーザの機能ベクターを近似することで、攻撃者が有毒な勾配を生成し、悪意のあるユーザーがよく設計された方法で有毒な勾配をアップロードするように制御することができる。
fedrecattackの有効性と副作用を評価するため、2つの全く異なるシナリオから異なるサイズの3つの実世界のデータセットを広範囲に実験した。
実験の結果,feedrecattackの副作用は無視できるが,最先端の有効性が得られた。
さらに、悪意のあるユーザー(3%)と公的なやりとり(1%)の少ない割合(1%)にもかかわらず、feedrecattackは非常に効果的であり、frは一般に検討された人々よりも攻撃に対して脆弱であることを示している。
関連論文リスト
- Preference Poisoning Attacks on Reward Model Learning [49.806139447922526]
攻撃者は、目標とする結果の促進または復号化を目標として、好み比較の小さなサブセットを反転させることができることを示す。
最高の攻撃は多くの場合、非常に成功しており、最も極端な場合、100%の成功率を達成することができ、データのわずか0.3%が毒殺されている。
我々はまた、他の種類の毒殺攻撃に対する最先端の防御策が、少なくとも我々の環境では有効性に制限されていることも示している。
論文 参考訳(メタデータ) (2024-02-02T21:45:24Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - FLEDGE: Ledger-based Federated Learning Resilient to Inference and
Backdoor Attacks [8.866045560761528]
フェデレートラーニング(Federated Learning, FL)は、複数のパーティ(あるいはクライアント)がプライベートデータを共有せずに、共同で機械学習モデルをトレーニングする分散学習プロセスである。
近年の研究では、FLに対する推論および中毒攻撃の有効性が示されている。
FLEDGEと呼ばれる台帳ベースのFLフレームワークは、当事者が行動に責任を負わせ、推論や毒殺攻撃を緩和するための合理的な効率性を実現する。
論文 参考訳(メタデータ) (2023-10-03T14:55:30Z) - FedVal: Different good or different bad in federated learning [9.558549875692808]
フェデレート・ラーニング(FL)システムは悪意のあるアクターからの攻撃を受けやすい。
FLは、異なる人口集団の公正なパフォーマンスを保証するなど、グループの偏見に対処する上で、新たな課題を提起する。
このようなバイアスに対処するために使用される従来の方法は、FLシステムが持っていないデータへの集中的なアクセスを必要とする。
我々は、クライアントからの追加情報を必要としない堅牢性と公正性の両方に対して、新しいアプローチであるFedValを提案する。
論文 参考訳(メタデータ) (2023-06-06T22:11:13Z) - Debiasing Recommendation by Learning Identifiable Latent Confounders [49.16119112336605]
コンバウンディングバイアスは、ユーザの露出とフィードバックの両方に影響を与える未測定変数の存在によって生じる。
既存の手法では,(1) 未測定変数について不確定な仮定を行うか,(2) 潜伏した共同創設者を直接ユーザの露出から推測する。
本稿では、上記の非識別問題の解決にプロキシ変数の集合を利用する新しい方法、すなわち、識別可能なデコノウ(iDCF)を提案する。
論文 参考訳(メタデータ) (2023-02-10T05:10:26Z) - Security Analysis of SplitFed Learning [22.38766677215997]
Split Learning (SL) と Federated Learning (FL) は2つの著名な分散協調学習技術である。
近年の研究では、FLのセキュリティ脆弱性を毒殺攻撃の形で調査している。
本稿では,SplitFedの強力なモデル中毒攻撃に対する堅牢性について,初めて経験的解析を行った。
論文 参考訳(メタデータ) (2022-12-04T01:16:45Z) - Rethinking Missing Data: Aleatoric Uncertainty-Aware Recommendation [59.500347564280204]
本稿では, Aleatoric Uncertainty-aware Recommendation (AUR) フレームワークを提案する。
AURは、新しい不確実性推定器と通常のレコメンデータモデルで構成されている。
誤ラベルの可能性がペアの可能性を反映しているため、AURは不確実性に応じてレコメンデーションを行う。
論文 参考訳(メタデータ) (2022-09-22T04:32:51Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - RobFR: Benchmarking Adversarial Robustness on Face Recognition [41.296221656624716]
顔認識(FR)は、最近大きく進歩し、標準ベンチマークで高い精度を達成した。
FRの逆方向の脆弱性をよりよく理解するために,textbfRobFRというFR上の逆方向の頑健性評価ライブラリを開発した。
RobFRには15の一般的な自然訓練されたFRモデル、代表防御機構を備えた9つのモデル、2つの商用FR APIサービスが含まれている。
論文 参考訳(メタデータ) (2020-07-08T13:39:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。