論文の概要: A Black-Box Attack Model for Visually-Aware Recommender Systems
- arxiv url: http://arxiv.org/abs/2011.02701v1
- Date: Thu, 5 Nov 2020 08:43:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 12:25:11.865921
- Title: A Black-Box Attack Model for Visually-Aware Recommender Systems
- Title(参考訳): 視覚認識レコメンダシステムのためのブラックボックス攻撃モデル
- Authors: Rami Cohen, Oren Sar Shalom, Dietmar Jannach and Amihood Amir
- Abstract要約: 視覚認識レコメンデータシステム(RS)は近年,研究の関心が高まっている。
本研究では,外部ソースに依存したRSを攻撃に対して脆弱にすることができることを示す。
ブラックボックスアプローチでは,新たなビジュアルアタックモデルがアイテムのスコアやランキングに効果的に影響を及ぼすことを示す。
- 参考スコア(独自算出の注目度): 7.226144684379191
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the advances in deep learning, visually-aware recommender systems (RS)
have recently attracted increased research interest. Such systems combine
collaborative signals with images, usually represented as feature vectors
outputted by pre-trained image models. Since item catalogs can be huge,
recommendation service providers often rely on images that are supplied by the
item providers. In this work, we show that relying on such external sources can
make an RS vulnerable to attacks, where the goal of the attacker is to unfairly
promote certain pushed items. Specifically, we demonstrate how a new visual
attack model can effectively influence the item scores and rankings in a
black-box approach, i.e., without knowing the parameters of the model. The main
underlying idea is to systematically create small human-imperceptible
perturbations of the pushed item image and to devise appropriate gradient
approximation methods to incrementally raise the pushed item's score.
Experimental evaluations on two datasets show that the novel attack model is
effective even when the contribution of the visual features to the overall
performance of the recommender system is modest.
- Abstract(参考訳): ディープラーニングの進歩により、視覚認識レコメンデーションシステム(rs)は最近、研究の関心が高まっている。
このようなシステムは、事前に訓練された画像モデルによって出力される特徴ベクトルとして表現される画像と協調的な信号を組み合わせる。
アイテムカタログは巨大であるため、レコメンデーションサービスプロバイダは、アイテムプロバイダから提供されるイメージに依存することが多い。
本研究では,このような外部ソースに依存したRSを攻撃に対して脆弱にし,攻撃者の目的が特定のプッシュアイテムを不当に促進することであることを示す。
具体的には,新たな視覚的攻撃モデルがブラックボックスアプローチの項目スコアやランキングに,モデルのパラメータを知らずに効果的に影響を及ぼすことを示す。
主な考え方は、プッシュされたアイテムイメージの小さな人間の知覚できない摂動を体系的に生成し、プッシュされたアイテムのスコアを漸進的に上昇させる適切な勾配近似法を考案することである。
2つのデータセットを実験的に評価した結果,レコメンダシステム全体の性能に視覚的特徴が寄与しても,新たな攻撃モデルが有効であることがわかった。
関連論文リスト
- Positive-Unlabelled Learning for Improving Image-based Recommender System Explainability [2.9748898344267785]
本研究は,Positive-Unlabelled (PU) Learning技術を活用することで,新たな説明者トレーニングパイプラインを提案する。
実験により、このPUベースのアプローチは、6つの人気のある実世界のデータセットで最先端の非PUメソッドよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-07-09T10:40:31Z) - Beyond Thumbs Up/Down: Untangling Challenges of Fine-Grained Feedback for Text-to-Image Generation [67.88747330066049]
きめ細かいフィードバックは、画像の品質と迅速な調整におけるニュアンスドの区別を捉えます。
粗いフィードバックに対する優位性を示すことは、自動ではないことを示す。
きめ細かいフィードバックを抽出し活用する上で重要な課題を特定します。
論文 参考訳(メタデータ) (2024-06-24T17:19:34Z) - Making Recommender Systems More Knowledgeable: A Framework to Incorporate Side Information [5.033504076393256]
本稿では,商品別サイド情報をレコメンダシステムに組み込んでパフォーマンスを高めるための汎用フレームワークを提案する。
副次的な情報により、我々の推薦システムは最先端のモデルよりもかなりのマージンで優れていることを示す。
また、リコメンデータシステムで使用される注意機構を標準化し、モデル性能への影響を評価するために、新しいタイプの損失を提案する。
論文 参考訳(メタデータ) (2024-06-02T04:33:52Z) - Model Stealing Attack against Recommender System [85.1927483219819]
いくつかの敵攻撃は、レコメンデーターシステムに対するモデル盗難攻撃を成し遂げた。
本稿では、利用可能なターゲットデータとクエリの量を制限し、対象データとセットされたアイテムを共有する補助データを活用して、モデル盗難攻撃を促進する。
論文 参考訳(メタデータ) (2023-12-18T05:28:02Z) - A Model-Agnostic Framework for Recommendation via Interest-aware Item
Embeddings [4.989653738257287]
Interest-Aware Capsule Network (IaCN)は、関心指向のアイテム表現を直接学習するモデルに依存しないフレームワークである。
IaCNは補助的なタスクとして機能し、アイテムベースと興味ベースの両方の表現の合同学習を可能にする。
提案手法をベンチマークデータセットで評価し、異なるディープニューラルネットワークを含むさまざまなシナリオを探索する。
論文 参考訳(メタデータ) (2023-08-17T22:40:59Z) - Enhancement by Your Aesthetic: An Intelligible Unsupervised Personalized
Enhancer for Low-Light Images [67.14410374622699]
低照度画像のための知能的教師なしパーソナライズ・エンハンサー(iUPEnhancer)を提案する。
提案したiUP-Enhancerは、これらの相関関係とそれに対応する教師なし損失関数のガイダンスを用いて訓練される。
実験により,提案アルゴリズムは競合的な質的,定量的な結果が得られることを示した。
論文 参考訳(メタデータ) (2022-07-15T07:16:10Z) - Reinforcement Learning based Path Exploration for Sequential Explainable
Recommendation [57.67616822888859]
強化学習(TMER-RL)を活用した新しい時間的メタパスガイド型説明可能な勧告を提案する。
TMER-RLは, 動的知識グラフ上での動的ユーザ・イテム進化を逐次モデル化するために, 注意機構を持つ連続項目間の強化項目・イテムパスをモデル化する。
2つの実世界のデータセットに対するTMERの大規模な評価は、最近の強いベースラインと比較して最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2021-11-24T04:34:26Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z) - Adversarial Item Promotion: Vulnerabilities at the Core of Top-N
Recommenders that Use Images to Address Cold Start [3.640517671681518]
商品を人工的に宣伝し、ランキングを改善するために、不気味な商人がいかにアイテムイメージを作成できるかを示す。
我々は、Top-Nレコメンデータのコアに直接攻撃する新たなタイプの攻撃、Adversarial Item promotion (AIP)について述べる。
コールドスタートに対処するために画像を使用することは、明確な実用的意味を持つ潜在的な脅威に対する推奨システムを開くことを示します。
論文 参考訳(メタデータ) (2020-06-02T19:12:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。