論文の概要: Attacking Recommender Systems with Augmented User Profiles
- arxiv url: http://arxiv.org/abs/2005.08164v2
- Date: Thu, 23 Jul 2020 14:22:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 06:05:48.405564
- Title: Attacking Recommender Systems with Augmented User Profiles
- Title(参考訳): ユーザプロファイルを増強したレコメンダシステムへの攻撃
- Authors: Chen Lin, Si Chen, Hui Li, Yanghua Xiao, Lianyun Li, Qian Yang
- Abstract要約: 対戦相手が多数のユーザプロファイルを注入し、ターゲットアイテムの宣伝やデモを行う、永続的で利益率の高い攻撃であるシリング攻撃について検討する。
本稿では,Augmented Shilling Attack framework (AUSH) を提案する。
AUSHは、特定のユーザーグループをターゲットにするなど、予算や複雑な攻撃目標に応じてRSに対する攻撃を調整できる。
- 参考スコア(独自算出の注目度): 35.52681676059885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommendation Systems (RS) have become an essential part of many online
services. Due to its pivotal role in guiding customers towards purchasing,
there is a natural motivation for unscrupulous parties to spoof RS for profits.
In this paper, we study the shilling attack: a subsistent and profitable attack
where an adversarial party injects a number of user profiles to promote or
demote a target item. Conventional shilling attack models are based on simple
heuristics that can be easily detected, or directly adopt adversarial attack
methods without a special design for RS. Moreover, the study on the attack
impact on deep learning based RS is missing in the literature, making the
effects of shilling attack against real RS doubtful. We present a novel
Augmented Shilling Attack framework (AUSH) and implement it with the idea of
Generative Adversarial Network. AUSH is capable of tailoring attacks against RS
according to budget and complex attack goals, such as targeting a specific user
group. We experimentally show that the attack impact of AUSH is noticeable on a
wide range of RS including both classic and modern deep learning based RS,
while it is virtually undetectable by the state-of-the-art attack detection
model.
- Abstract(参考訳): レコメンデーションシステム(rs)は多くのオンラインサービスの重要な部分となっている。
顧客を購買へと導く上で重要な役割を担っているため、不正な当事者が利益のためにrsを振り回すという自然な動機がある。
本稿では,敵が多数のユーザプロファイルを注入し,対象項目の促進や復号を行う,従属的で利益率の高い攻撃であるシリング攻撃について検討する。
従来のシリング攻撃モデルは単純なヒューリスティックに基づいており、簡単に検出したり、rsの特別な設計なしで直接逆攻撃法を採用することができる。
また,本論文では,深層学習に基づくrsに対する攻撃効果に関する研究が欠落しており,実際のrsに対するシリング攻撃の効果は疑わしい。
本稿では,新たな拡張シリング攻撃フレームワーク(aush)を提案する。
AUSHは特定のユーザーグループをターゲットにして、予算や複雑な攻撃目標に応じてRSに対する攻撃を調整できる。
AUSH の攻撃影響は古典的・近代的な深層学習に基づく RS を含む幅広い RS において顕著であり,最先端の攻撃検出モデルでは検出不可能であることを示す。
関連論文リスト
- Leveraging Reinforcement Learning in Red Teaming for Advanced Ransomware Attack Simulations [7.361316528368866]
本稿では,ランサムウェア攻撃のシミュレーションに強化学習(RL)を利用する新しい手法を提案する。
実世界のネットワークを模倣するシミュレーション環境でRLエージェントを訓練することにより、効果的な攻撃戦略を迅速に学習することができる。
152ホストのサンプルネットワークの実験結果から,提案手法の有効性が確認された。
論文 参考訳(メタデータ) (2024-06-25T14:16:40Z) - Poisoning Attacks and Defenses in Recommender Systems: A Survey [39.25402612579371]
現代のレコメンデーターシステム(RS)は、デジタルプラットフォーム全体のユーザエクスペリエンスを著しく向上させたが、毒殺攻撃による重大な脅威に直面している。
この調査は、攻撃者のレンズを通してこれらの脅威を調べることによって、ユニークな視点を示す。
攻撃目標の設定、攻撃能力の評価、犠牲者のアーキテクチャの分析、毒殺戦略の実行の4段階を含む系統的なパイプラインについて詳述する。
論文 参考訳(メタデータ) (2024-06-03T06:08:02Z) - Rethinking the Vulnerabilities of Face Recognition Systems:From a Practical Perspective [53.24281798458074]
顔認識システム(FRS)は、監視やユーザー認証を含む重要なアプリケーションにますます統合されている。
最近の研究によると、FRSの脆弱性は敵(例えば、敵パッチ攻撃)やバックドア攻撃(例えば、データ中毒の訓練)であることが明らかになっている。
論文 参考訳(メタデータ) (2024-05-21T13:34:23Z) - Poisoning Federated Recommender Systems with Fake Users [48.70867241987739]
フェデレーテッド・レコメンデーションは、フェデレーテッド・ラーニングにおける顕著なユースケースである。
本稿では,攻撃対象のアイテムを宣伝するために,PisonFRSという偽ユーザによる新たな毒殺攻撃を導入する。
複数の実世界のデータセットに対する実験では、PoisonFRSが攻撃者-チョセンアイテムを真のユーザの大部分に効果的にプロモートできることが示されている。
論文 参考訳(メタデータ) (2024-02-18T16:34:12Z) - Review-Incorporated Model-Agnostic Profile Injection Attacks on
Recommender Systems [24.60223863559958]
本稿では, R-Trojan という新たな攻撃フレームワークを提案する。このフレームワークは, 攻撃目標を最適化問題として定式化し, それを解決するために, トランスフォーマベース生成対向ネットワーク (GAN) を採用している。
実世界のデータセットの実験では、R-Trojanはブラックボックス設定下で、さまざまな犠牲者RSに対する最先端の攻撃方法を大幅に上回っている。
論文 参考訳(メタデータ) (2024-02-14T08:56:41Z) - Practical Cross-System Shilling Attacks with Limited Access to Data [14.904685178603255]
シリング攻撃では、敵側がいくつかの偽ユーザプロファイルをRecommender System(RS)に注入し、ターゲットアイテムのプロモーションや削除を行う。
本稿では,実用的なシリング攻撃手法が持つべき特性を分析し,クロスシステムアタックという新たな概念を提案する。
論文 参考訳(メタデータ) (2023-02-14T15:53:12Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Thinking Two Moves Ahead: Anticipating Other Users Improves Backdoor
Attacks in Federated Learning [102.05872020792603]
我々は,他のクライアントの行動を含む,連合学習パイプライン全体の予測と説明を行う攻撃を提案する。
この新たな攻撃は、ランダムにサンプリングされたラウンドのごく一部にアタッカーが貢献する現実的なシナリオにおいて有効であることを示す。
論文 参考訳(メタデータ) (2022-10-17T17:59:38Z) - Shilling Black-box Recommender Systems by Learning to Generate Fake User
Profiles [14.437087775166876]
本稿では,ジェネレーティブ・アタック・ネットワークに基づく新たな攻撃モデルLeg-UPを提案する。
Leg-UPはサンプルテンプレート'で実際のユーザからユーザ行動パターンを学び、フェイクユーザプロファイルを構築する。
ベンチマーク実験では、Leg-UPは幅広い犠牲者RSモデルにおいて最先端のシリング攻撃法を超えることが示されている。
論文 参考訳(メタデータ) (2022-06-23T00:40:19Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。