論文の概要: Accelerating the Surrogate Retraining for Poisoning Attacks against Recommender Systems
- arxiv url: http://arxiv.org/abs/2408.10666v1
- Date: Tue, 20 Aug 2024 09:08:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 17:22:22.203416
- Title: Accelerating the Surrogate Retraining for Poisoning Attacks against Recommender Systems
- Title(参考訳): Recommender システムに対する攻撃に対するサロゲート・リトレーニングの高速化
- Authors: Yunfan Wu, Qi Cao, Shuchang Tao, Kaike Zhang, Fei Sun, Huawei Shen,
- Abstract要約: データ中毒攻撃では、敵はターゲットアイテムを宣伝するために推奨者のトレーニングデータに慎重に偽ユーザーインタラクションを注入する。
現在の攻撃方法は、攻撃を最適化するために、最新のフェイクユーザーと、毒データでサロゲートレコメンデーターを反復的に再訓練することを含む。
EmphGradient Passing (GP) は、バックプロパゲーション中に相互作用するユーザとイテムのペア間の勾配を明示的に通過する新しい手法である。
- 参考スコア(独自算出の注目度): 26.685402538573825
- License:
- Abstract: Recent studies have demonstrated the vulnerability of recommender systems to data poisoning attacks, where adversaries inject carefully crafted fake user interactions into the training data of recommenders to promote target items. Current attack methods involve iteratively retraining a surrogate recommender on the poisoned data with the latest fake users to optimize the attack. However, this repetitive retraining is highly time-consuming, hindering the efficient assessment and optimization of fake users. To mitigate this computational bottleneck and develop a more effective attack in an affordable time, we analyze the retraining process and find that a change in the representation of one user/item will cause a cascading effect through the user-item interaction graph. Under theoretical guidance, we introduce \emph{Gradient Passing} (GP), a novel technique that explicitly passes gradients between interacted user-item pairs during backpropagation, thereby approximating the cascading effect and accelerating retraining. With just a single update, GP can achieve effects comparable to multiple original training iterations. Under the same number of retraining epochs, GP enables a closer approximation of the surrogate recommender to the victim. This more accurate approximation provides better guidance for optimizing fake users, ultimately leading to enhanced data poisoning attacks. Extensive experiments on real-world datasets demonstrate the efficiency and effectiveness of our proposed GP.
- Abstract(参考訳): 近年の研究では、データ中毒攻撃に対するレコメンデーターシステムの脆弱性が実証されており、敵はターゲットアイテムをプロモートするためのレコメンデーターのトレーニングデータに、慎重に偽ユーザーインタラクションを注入している。
現在の攻撃方法は、攻撃を最適化するために、最新のフェイクユーザーと、毒データでサロゲートレコメンデーターを反復的に再訓練することを含む。
しかし、この反復的なリトレーニングは非常に時間がかかり、偽ユーザーの効率的な評価と最適化を妨げている。
この計算ボトルネックを緩和し、より効率的な攻撃を安価に展開するために、リトレーニングプロセスを分析し、ユーザ/イテムの表現の変化がユーザ/イテムの相互作用グラフを通してカスケード効果を引き起こすことを発見した。
提案手法は,バックプロパゲーション中に相互作用するユーザ-イテム間の勾配を明示的に通過させ,カスケード効果を近似し,再トレーニングを高速化する手法である。
たった1回のアップデートで、GPは複数のオリジナルのトレーニングイテレーションに匹敵する効果を達成できる。
同じ数の再訓練エポックの下で、GPは被害者へのサロゲートレコメンデーターのより近い近似を可能にする。
このより正確な近似は、偽ユーザーを最適化するためのより良いガイダンスを提供する。
実世界のデータセットに対する大規模な実験により,提案したGPの有効性と有効性を示した。
関連論文リスト
- Intent-Enhanced Data Augmentation for Sequential Recommendation [20.639934432829325]
逐次レコメンデーション(textbfIESRec)のためのインテント強化データ拡張手法を提案する。
IESRecは、インテント・セグメンテーションの挿入を通じて、ユーザの行動シーケンスに基づいて、正と負のサンプルを構築する。
生成した正および負のサンプルは、対比損失関数を構築するために使用され、自己教師付きトレーニングを通じて推奨性能を高める。
論文 参考訳(メタデータ) (2024-10-11T07:23:45Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - SURF: Semi-supervised Reward Learning with Data Augmentation for
Feedback-efficient Preference-based Reinforcement Learning [168.89470249446023]
我々は、大量のラベルなしサンプルとデータ拡張を利用する半教師付き報酬学習フレームワークSURFを提案する。
報奨学習にラベルのないサンプルを活用するために,選好予測器の信頼性に基づいてラベルのないサンプルの擬似ラベルを推定する。
本実験は, ロボット操作作業における嗜好に基づく手法のフィードバック効率を有意に向上させることを実証した。
論文 参考訳(メタデータ) (2022-03-18T16:50:38Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z) - Membership Inference Attacks Against Recommender Systems [33.66394989281801]
我々は,会員推論のレンズを用いて,レコメンデータシステムのプライバシー漏洩を定量化するための最初の試みを行う。
私たちの攻撃はユーザレベルにありますが、データサンプルレベルではありません。
シャドーレコメンデータは、ラベル付きトレーニングデータを導出し、攻撃モデルを訓練する。
論文 参考訳(メタデータ) (2021-09-16T15:19:19Z) - Poisoning Attack against Estimating from Pairwise Comparisons [140.9033911097995]
攻撃者はランクリストを操作するための強い動機と動機を持っている。
ペアワイズランキングアルゴリズムに対するデータ中毒攻撃は、ローダとアタッカーの間の動的および静的ゲームとして形式化することができる。
本稿では、2つの効率的な毒殺攻撃アルゴリズムを提案し、関連する理論的保証を確立する。
論文 参考訳(メタデータ) (2021-07-05T08:16:01Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - Data Poisoning Attacks to Deep Learning Based Recommender Systems [26.743631067729677]
深層学習に基づくレコメンダシステムに対するデータ中毒攻撃に関する最初の体系的研究を行う。
攻撃者の目標は、攻撃者選択対象項目が多くのユーザーに推奨されるように推奨システムを操作することです。
この目標を達成するために、この攻撃は、注意深い評価を施した偽ユーザーをレコメンダシステムへ注入する。
論文 参考訳(メタデータ) (2021-01-07T17:32:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。