論文の概要: Attacking Black-box Recommendations via Copying Cross-domain User
Profiles
- arxiv url: http://arxiv.org/abs/2005.08147v2
- Date: Sun, 24 Apr 2022 11:59:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 06:06:11.793278
- Title: Attacking Black-box Recommendations via Copying Cross-domain User
Profiles
- Title(参考訳): クロスドメインユーザプロファイルのコピーによるブラックボックス勧告の攻撃
- Authors: Wenqi Fan, Tyler Derr, Xiangyu Zhao, Yao Ma, Hui Liu, Jianping Wang,
Jiliang Tang, Qing Li
- Abstract要約: 本稿では,プロファイルを対象ドメインにコピーすることで,実際のユーザをソースドメインから活用するフレームワークを提案する。
CopyAttackの目標は、ターゲットドメイン内のユーザのTop-k$レコメンデーションリストにあるターゲットアイテムのヒット率を最大化することである。
- 参考スコア(独自算出の注目度): 47.48722020494725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, recommender systems that aim to suggest personalized lists of items
for users to interact with online have drawn a lot of attention. In fact, many
of these state-of-the-art techniques have been deep learning based. Recent
studies have shown that these deep learning models (in particular for
recommendation systems) are vulnerable to attacks, such as data poisoning,
which generates users to promote a selected set of items. However, more
recently, defense strategies have been developed to detect these generated
users with fake profiles. Thus, advanced injection attacks of creating more
`realistic' user profiles to promote a set of items is still a key challenge in
the domain of deep learning based recommender systems. In this work, we present
our framework CopyAttack, which is a reinforcement learning based black-box
attack method that harnesses real users from a source domain by copying their
profiles into the target domain with the goal of promoting a subset of items.
CopyAttack is constructed to both efficiently and effectively learn policy
gradient networks that first select, and then further refine/craft, user
profiles from the source domain to ultimately copy into the target domain.
CopyAttack's goal is to maximize the hit ratio of the targeted items in the
Top-$k$ recommendation list of the users in the target domain. We have
conducted experiments on two real-world datasets and have empirically verified
the effectiveness of our proposed framework and furthermore performed a
thorough model analysis.
- Abstract(参考訳): 近年,ユーザがオンラインで対話するアイテムのパーソナライズされたリストを提案するレコメンデーションシステムに注目が集まっている。
実際、これらの最先端技術の多くはディープラーニングに基づいています。
近年の研究では、これらのディープラーニングモデル(特にレコメンデーションシステム)は、選択された一連のアイテムをプロモートするユーザを生成するデータ中毒などの攻撃に対して脆弱であることが示されている。
しかし最近では、これらの生成したユーザーを偽のプロフィールで検出する防衛戦略が開発されている。
したがって、より‘リアル’な’ユーザプロファイルを作成して、一連のアイテムを促進する高度なインジェクション攻撃は、ディープラーニングベースのレコメンデーションシステムの領域において依然として重要な課題である。
本研究では,提案するフレームワークであるCopyAttackについて紹介する。これは強化学習に基づくブラックボックス攻撃手法で,プロファイルをターゲットドメインにコピーすることで,ソースドメインから実際のユーザを活用する。
copyattackは、まず選択したポリシーグラデーションネットワークを効率的に学習し、その後、ソースドメインからユーザープロファイルを精巧化し、最終的にターゲットドメインにコピーする。
CopyAttackの目標は、ターゲットドメイン内のユーザのTop-k$レコメンデーションリストにあるターゲットアイテムのヒット率を最大化することである。
実世界の2つのデータセットの実験を行い、提案フレームワークの有効性を実証的に検証し、さらに詳細なモデル解析を行った。
関連論文リスト
- Poisoning Federated Recommender Systems with Fake Users [48.70867241987739]
フェデレーテッド・レコメンデーションは、フェデレーテッド・ラーニングにおける顕著なユースケースである。
本稿では,攻撃対象のアイテムを宣伝するために,PisonFRSという偽ユーザによる新たな毒殺攻撃を導入する。
複数の実世界のデータセットに対する実験では、PoisonFRSが攻撃者-チョセンアイテムを真のユーザの大部分に効果的にプロモートできることが示されている。
論文 参考訳(メタデータ) (2024-02-18T16:34:12Z) - Preference Poisoning Attacks on Reward Model Learning [47.00395978031771]
ペア比較による報酬モデル学習における脆弱性の性質と範囲について検討する。
本稿では,これらの攻撃に対するアルゴリズム的アプローチのクラスとして,勾配に基づくフレームワークと,ランク・バイ・ディスタンス手法のいくつかのバリエーションを提案する。
最高の攻撃は多くの場合、非常に成功しており、最も極端な場合、100%の成功率を達成することができ、データのわずか0.3%が毒殺されている。
論文 参考訳(メタデータ) (2024-02-02T21:45:24Z) - Model Stealing Attack against Recommender System [85.1927483219819]
いくつかの敵攻撃は、レコメンデーターシステムに対するモデル盗難攻撃を成し遂げた。
本稿では、利用可能なターゲットデータとクエリの量を制限し、対象データとセットされたアイテムを共有する補助データを活用して、モデル盗難攻撃を促進する。
論文 参考訳(メタデータ) (2023-12-18T05:28:02Z) - Knowledge-enhanced Black-box Attacks for Recommendations [21.914252071143945]
ディープニューラルネットワークベースのレコメンデータシステムは、敵の攻撃に対して脆弱である。
攻撃ポリシーを効果的に学習するための知識グラフ強化ブラックボックス攻撃フレームワーク(KGAttack)を提案する。
様々な実世界のデータセットに関する総合的な実験は、提案した攻撃フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T04:59:31Z) - Poisoning Deep Learning based Recommender Model in Federated Learning
Scenarios [7.409990425668484]
我々は、統合学習シナリオにおけるディープラーニングに基づくレコメンデータモデルをターゲットにしたアタックアプローチを設計する。
私たちのよく設計された攻撃は、ターゲットモデルに効果的に毒を盛ることができ、攻撃の有効性は最先端のものである。
論文 参考訳(メタデータ) (2022-04-26T15:23:05Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z) - Data Poisoning Attacks to Deep Learning Based Recommender Systems [26.743631067729677]
深層学習に基づくレコメンダシステムに対するデータ中毒攻撃に関する最初の体系的研究を行う。
攻撃者の目標は、攻撃者選択対象項目が多くのユーザーに推奨されるように推奨システムを操作することです。
この目標を達成するために、この攻撃は、注意深い評価を施した偽ユーザーをレコメンダシステムへ注入する。
論文 参考訳(メタデータ) (2021-01-07T17:32:56Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。