論文の概要: Adversarial Item Promotion: Vulnerabilities at the Core of Top-N
Recommenders that Use Images to Address Cold Start
- arxiv url: http://arxiv.org/abs/2006.01888v3
- Date: Tue, 20 Oct 2020 13:05:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 01:25:29.245304
- Title: Adversarial Item Promotion: Vulnerabilities at the Core of Top-N
Recommenders that Use Images to Address Cold Start
- Title(参考訳): adversarial item promotion: コールドスタートに対処するためにイメージを使用するトップnレコメンダのコアにある脆弱性
- Authors: Zhuoran Liu and Martha Larson
- Abstract要約: 商品を人工的に宣伝し、ランキングを改善するために、不気味な商人がいかにアイテムイメージを作成できるかを示す。
我々は、Top-Nレコメンデータのコアに直接攻撃する新たなタイプの攻撃、Adversarial Item promotion (AIP)について述べる。
コールドスタートに対処するために画像を使用することは、明確な実用的意味を持つ潜在的な脅威に対する推奨システムを開くことを示します。
- 参考スコア(独自算出の注目度): 3.640517671681518
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: E-commerce platforms provide their customers with ranked lists of recommended
items matching the customers' preferences. Merchants on e-commerce platforms
would like their items to appear as high as possible in the top-N of these
ranked lists. In this paper, we demonstrate how unscrupulous merchants can
create item images that artificially promote their products, improving their
rankings. Recommender systems that use images to address the cold start problem
are vulnerable to this security risk. We describe a new type of attack,
Adversarial Item Promotion (AIP), that strikes directly at the core of Top-N
recommenders: the ranking mechanism itself. Existing work on adversarial images
in recommender systems investigates the implications of conventional attacks,
which target deep learning classifiers. In contrast, our AIP attacks are
embedding attacks that seek to push features representations in a way that
fools the ranker (not a classifier) and directly lead to item promotion. We
introduce three AIP attacks insider attack, expert attack, and semantic attack,
which are defined with respect to three successively more realistic attack
models. Our experiments evaluate the danger of these attacks when mounted
against three representative visually-aware recommender algorithms in a
framework that uses images to address cold start. We also evaluate potential
defenses, including adversarial training and find that common,
currently-existing, techniques do not eliminate the danger of AIP attacks. In
sum, we show that using images to address cold start opens recommender systems
to potential threats with clear practical implications.
- Abstract(参考訳): Eコマースプラットフォームは、顧客の好みに合った推奨アイテムのリストを顧客に提供します。
電子商取引プラットフォームのマーチャントは、これらのランキングのトップNのアイテムをできるだけ高く表示したいと考えている。
本稿では,商品を人工的にプロモートする商品画像を作成し,そのランキングを改善する方法を示す。
コールドスタート問題に対処するためにイメージを使用するリコメンダシステムは、このセキュリティリスクに対して脆弱である。
本稿では,Top-Nレコメンデータのコアであるランキング機構そのものを直接攻撃する新たなタイプの攻撃,Adversarial Item promotion(AIP)について述べる。
推薦システムにおける敵画像の既存の研究は、ディープラーニング分類器を対象とする従来の攻撃の影響を調査している。
対照的に、当社のAIP攻撃は、ランク付けを騙し(分類器ではない)、アイテムのプロモーションに直接導く方法で特徴表現をプッシュしようとする攻撃を埋め込むことです。
3つのAIP攻撃、エキスパート攻撃、セマンティックアタックを導入し、3つのより現実的なアタックモデルについて定義する。
寒冷開始に対処するために画像を使用するフレームワークにおいて,3つの視覚的推薦アルゴリズムに対して,これらの攻撃の危険性を評価する。
また、敵の訓練を含む潜在的な防御力を評価し、現在存在する一般的な技術がaip攻撃の危険性を取り除かないことを見出します。
要約すると, コールドスタートに対するイメージの使用は, 明確な実用的意味を持つ潜在的な脅威に対して, 推奨システムを開放することを示す。
関連論文リスト
- Improving the Shortest Plank: Vulnerability-Aware Adversarial Training for Robust Recommender System [60.719158008403376]
VAT(Vulnerability-aware Adversarial Training)は、レコメンデーションシステムにおける中毒攻撃に対する防御を目的とした訓練である。
VATは、システムの適合度に基づいて、ユーザの脆弱性を推定するために、新たな脆弱性認識機能を採用している。
論文 参考訳(メタデータ) (2024-09-26T02:24:03Z) - Poisoning Federated Recommender Systems with Fake Users [48.70867241987739]
フェデレーテッド・レコメンデーションは、フェデレーテッド・ラーニングにおける顕著なユースケースである。
本稿では,攻撃対象のアイテムを宣伝するために,PisonFRSという偽ユーザによる新たな毒殺攻撃を導入する。
複数の実世界のデータセットに対する実験では、PoisonFRSが攻撃者-チョセンアイテムを真のユーザの大部分に効果的にプロモートできることが示されている。
論文 参考訳(メタデータ) (2024-02-18T16:34:12Z) - Poisoning Deep Learning based Recommender Model in Federated Learning
Scenarios [7.409990425668484]
我々は、統合学習シナリオにおけるディープラーニングに基づくレコメンデータモデルをターゲットにしたアタックアプローチを設計する。
私たちのよく設計された攻撃は、ターゲットモデルに効果的に毒を盛ることができ、攻撃の有効性は最先端のものである。
論文 参考訳(メタデータ) (2022-04-26T15:23:05Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z) - Adversarial Attack and Defense in Deep Ranking [100.17641539999055]
本稿では,敵対的摂動によって選抜された候補者のランクを引き上げたり下げたりできる,ディープランキングシステムに対する2つの攻撃を提案する。
逆に、全ての攻撃に対するランキングモデルロバスト性を改善するために、反崩壊三重項防御法が提案されている。
MNIST, Fashion-MNIST, CUB200-2011, CARS196およびStanford Online Productsデータセットを用いて, 敵のランク付け攻撃と防御を評価した。
論文 参考訳(メタデータ) (2021-06-07T13:41:45Z) - Practical Relative Order Attack in Deep Ranking [99.332629807873]
ディープランキングシステム、すなわちオーダーアタックに対する新しい敵の攻撃を定式化します。
順序攻撃は、攻撃者が特定した順列に応じて、選択された候補群間の相対順序を暗黙的に変更する。
主要なeコマースプラットフォームでうまく実装されている。
論文 参考訳(メタデータ) (2021-03-09T06:41:18Z) - QAIR: Practical Query-efficient Black-Box Attacks for Image Retrieval [56.51916317628536]
画像検索に対するクエリベースの攻撃について検討し,ブラックボックス設定下での対比例に対する堅牢性を評価する。
新たな関連性に基づく損失は、攻撃前後のトップk検索結果のセット類似度を測定して攻撃効果を定量化するように設計されている。
提案手法は,ブラックボックス設定による画像検索システムに対するクエリ数が少なく,高い攻撃成功率を達成できることを示す実験である。
論文 参考訳(メタデータ) (2021-03-04T10:18:43Z) - A Black-Box Attack Model for Visually-Aware Recommender Systems [7.226144684379191]
視覚認識レコメンデータシステム(RS)は近年,研究の関心が高まっている。
本研究では,外部ソースに依存したRSを攻撃に対して脆弱にすることができることを示す。
ブラックボックスアプローチでは,新たなビジュアルアタックモデルがアイテムのスコアやランキングに効果的に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2020-11-05T08:43:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。