論文の概要: Review-Incorporated Model-Agnostic Profile Injection Attacks on
Recommender Systems
- arxiv url: http://arxiv.org/abs/2402.09023v1
- Date: Wed, 14 Feb 2024 08:56:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 16:18:43.844151
- Title: Review-Incorporated Model-Agnostic Profile Injection Attacks on
Recommender Systems
- Title(参考訳): Recommender システムにおけるモデル非依存型プロファイル注入攻撃の見直し
- Authors: Shiyi Yang, Lina Yao, Chen Wang, Xiwei Xu, Liming Zhu
- Abstract要約: 本稿では, R-Trojan という新たな攻撃フレームワークを提案する。このフレームワークは, 攻撃目標を最適化問題として定式化し, それを解決するために, トランスフォーマベース生成対向ネットワーク (GAN) を採用している。
実世界のデータセットの実験では、R-Trojanはブラックボックス設定下で、さまざまな犠牲者RSに対する最先端の攻撃方法を大幅に上回っている。
- 参考スコア(独自算出の注目度): 24.60223863559958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown that recommender systems (RSs) are highly
vulnerable to data poisoning attacks. Understanding attack tactics helps
improve the robustness of RSs. We intend to develop efficient attack methods
that use limited resources to generate high-quality fake user profiles to
achieve 1) transferability among black-box RSs 2) and imperceptibility among
detectors. In order to achieve these goals, we introduce textual reviews of
products to enhance the generation quality of the profiles. Specifically, we
propose a novel attack framework named R-Trojan, which formulates the attack
objectives as an optimization problem and adopts a tailored transformer-based
generative adversarial network (GAN) to solve it so that high-quality attack
profiles can be produced. Comprehensive experiments on real-world datasets
demonstrate that R-Trojan greatly outperforms state-of-the-art attack methods
on various victim RSs under black-box settings and show its good
imperceptibility.
- Abstract(参考訳): 近年の研究では、レコメンダシステム(rss)がデータ中毒攻撃に対して非常に脆弱であることが示されている。
攻撃戦術を理解することはrssの堅牢性を改善するのに役立つ。
我々は、限られた資源を用いて高品質な偽ユーザープロファイルを生成する効率的な攻撃方法を開発するつもりである。
1)ブラックボックスRS間の転写性
2)検出器間の非感受性
これらの目標を達成するために,プロファイラの生成品質を高めるために,製品のテキストレビューを導入する。
具体的には、R-Trojanと呼ばれる新しい攻撃フレームワークを提案し、最適化問題として攻撃目標を定式化し、高品質な攻撃プロファイルを生成できるように、カスタマイズされたトランスフォーマーベースの生成逆ネットワーク(GAN)を採用する。
実世界のデータセットに関する総合的な実験により、R-Trojanはブラックボックス設定下で、さまざまな犠牲者RSに対する最先端の攻撃方法を大幅に上回り、その好ましくないことを示す。
関連論文リスト
- Rethinking Targeted Adversarial Attacks For Neural Machine Translation [56.10484905098989]
本報告では,NMTが標的とする敵攻撃に対して,信頼性の高い攻撃結果をもたらす可能性のある新たな設定を提案する。
新しい設定では、敵の例を作成するためのTWGA(Targeted Word Gradient Adversarial Attack)手法を提案する。
実験の結果,提案手法はNMTシステムに対する敵攻撃に対して忠実な攻撃効果をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-07T10:16:06Z) - Learning diverse attacks on large language models for robust red-teaming and safety tuning [126.32539952157083]
レッドチーム、あるいは有害な応答を誘発するプロンプトの特定は、大きな言語モデルの安全なデプロイを保証するための重要なステップである。
新規性と多様性を優先する明確な規則化であっても、既存のアプローチはモード崩壊または効果的な攻撃を発生させることができないことを示す。
我々は,GFlowNetの微調整と二次平滑化フェーズを用いて,多種多様な効果的な攻撃プロンプトを生成するために攻撃モデルを訓練することを提案する。
論文 参考訳(メタデータ) (2024-05-28T19:16:17Z) - Securing Recommender System via Cooperative Training [78.97620275467733]
本稿では,データを相互に強化する3つの協調モデルを用いたTCD(Triple Cooperative Defense)を提案する。
既存の攻撃が二段階最適化と効率のバランスをとるのに苦労していることを考えると、リコメンダシステムにおける毒殺攻撃を再考する。
我々はゲームベースのコトレーニングアタック(GCoAttack)を提案し,提案したCoAttackとTCDをゲーム理論のプロセスとする。
論文 参考訳(メタデータ) (2024-01-23T12:07:20Z) - Variation Enhanced Attacks Against RRAM-based Neuromorphic Computing
System [14.562718993542964]
本稿では,異なる攻撃シナリオと目的に対する2種類のハードウェア・アウェア・アタック手法を提案する。
1つ目は、ニューラルネットワークの予測を誤解させるために入力サンプルを摂動させる敵攻撃VADERである。
2つ目は、特定のサンプルがターゲットラベルに分類されるように、ネットワークパラメータ空間を乱す障害注入攻撃(EFI)である。
論文 参考訳(メタデータ) (2023-02-20T10:57:41Z) - Generalizable Black-Box Adversarial Attack with Meta Learning [54.196613395045595]
ブラックボックス攻撃では、ターゲットモデルのパラメータが不明であり、攻撃者はクエリのフィードバックに基づいて、クエリの予算に基づいて摂動を成功させることを目指している。
本稿では,実例レベルの逆転可能性という,過去の攻撃に対するフィードバック情報を活用することを提案する。
この2種類の逆転送性を持つフレームワークは,市販のクエリベースのアタック手法と自然に組み合わせて性能を向上させることができる。
論文 参考訳(メタデータ) (2023-01-01T07:24:12Z) - Shilling Black-box Recommender Systems by Learning to Generate Fake User
Profiles [14.437087775166876]
本稿では,ジェネレーティブ・アタック・ネットワークに基づく新たな攻撃モデルLeg-UPを提案する。
Leg-UPはサンプルテンプレート'で実際のユーザからユーザ行動パターンを学び、フェイクユーザプロファイルを構築する。
ベンチマーク実験では、Leg-UPは幅広い犠牲者RSモデルにおいて最先端のシリング攻撃法を超えることが示されている。
論文 参考訳(メタデータ) (2022-06-23T00:40:19Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Ready for Emerging Threats to Recommender Systems? A Graph
Convolution-based Generative Shilling Attack [8.591490818966882]
プリミティブアタックは、非常に実現可能であるが、単純な手作りのルールのため効果が低い。
アップグレードされた攻撃は、より強力だが、費用がかかり、展開が困難である。
本稿では,グラフcOnvolutionに基づく生成シリングアタック(GOAT)と呼ばれる新たなシリング攻撃を探索し,攻撃の実現可能性と効果のバランスをとる。
論文 参考訳(メタデータ) (2021-07-22T05:02:59Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - A survey on Adversarial Recommender Systems: from Attack/Defense
strategies to Generative Adversarial Networks [17.48549434869898]
協調フィルタリング(CF)に基づく潜在因子モデル(LFM)は、リコメンダシステム(RS)において広く使われている。
機械学習(ML)の多くの応用は本質的に逆である。
論文 参考訳(メタデータ) (2020-05-20T19:17:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。