論文の概要: Knowledge-enhanced Black-box Attacks for Recommendations
- arxiv url: http://arxiv.org/abs/2207.10307v1
- Date: Thu, 21 Jul 2022 04:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 12:40:19.911068
- Title: Knowledge-enhanced Black-box Attacks for Recommendations
- Title(参考訳): 勧告のための知識強化型ブラックボックス攻撃
- Authors: Jingfan Chen, Wenqi Fan, Guanghui Zhu, Xiangyu Zhao, Chunfeng Yuan,
Qing Li, Yihua Huang
- Abstract要約: ディープニューラルネットワークベースのレコメンデータシステムは、敵の攻撃に対して脆弱である。
攻撃ポリシーを効果的に学習するための知識グラフ強化ブラックボックス攻撃フレームワーク(KGAttack)を提案する。
様々な実世界のデータセットに関する総合的な実験は、提案した攻撃フレームワークの有効性を実証する。
- 参考スコア(独自算出の注目度): 21.914252071143945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown that deep neural networks-based recommender systems
are vulnerable to adversarial attacks, where attackers can inject carefully
crafted fake user profiles (i.e., a set of items that fake users have
interacted with) into a target recommender system to achieve malicious
purposes, such as promote or demote a set of target items. Due to the security
and privacy concerns, it is more practical to perform adversarial attacks under
the black-box setting, where the architecture/parameters and training data of
target systems cannot be easily accessed by attackers. However, generating
high-quality fake user profiles under black-box setting is rather challenging
with limited resources to target systems. To address this challenge, in this
work, we introduce a novel strategy by leveraging items' attribute information
(i.e., items' knowledge graph), which can be publicly accessible and provide
rich auxiliary knowledge to enhance the generation of fake user profiles. More
specifically, we propose a knowledge graph-enhanced black-box attacking
framework (KGAttack) to effectively learn attacking policies through deep
reinforcement learning techniques, in which knowledge graph is seamlessly
integrated into hierarchical policy networks to generate fake user profiles for
performing adversarial black-box attacks. Comprehensive experiments on various
real-world datasets demonstrate the effectiveness of the proposed attacking
framework under the black-box setting.
- Abstract(参考訳): 近年の研究では、ディープニューラルネットワークベースのレコメンデーターシステムは敵の攻撃に弱いことが示されており、攻撃者はターゲットのレコメンデーターシステムに慎重に偽ユーザープロファイル(つまり、偽ユーザーが対話したアイテムのセット)を注入して、ターゲットのアイテムのセットのプロモートやデモといった悪意ある目的を達成することができる。
セキュリティとプライバシの懸念から、ターゲットシステムのアーキテクチャ/パラメータとトレーニングデータが攻撃者によって容易にアクセスできないブラックボックス設定下で敵攻撃を行うことは、より現実的である。
しかし、ブラックボックス設定下で高品質な偽ユーザープロファイルを生成することは、ターゲットシステムに限られたリソースを投入する上でかなり難しい。
この課題に対処するため、本稿では、アイテムの属性情報(すなわち、アイテムの知識グラフ)を公開して、フェイクユーザプロファイルの生成を促進するための豊富な補助的知識を提供する新しい戦略を導入する。
より具体的には、知識グラフを階層的ポリシネットワークにシームレスに統合し、敵ブラックボックス攻撃を行うための偽ユーザープロファイルを生成する、深層強化学習技術により、効果的に攻撃ポリシーを学ぶための知識グラフ強化ブラックボックス攻撃フレームワーク(kgattack)を提案する。
様々な実世界のデータセットに関する総合的な実験は、ブラックボックス設定下で提案された攻撃フレームワークの有効性を示す。
関連論文リスト
- Improving the Shortest Plank: Vulnerability-Aware Adversarial Training for Robust Recommender System [60.719158008403376]
VAT(Vulnerability-aware Adversarial Training)は、レコメンデーションシステムにおける中毒攻撃に対する防御を目的とした訓練である。
VATは、システムの適合度に基づいて、ユーザの脆弱性を推定するために、新たな脆弱性認識機能を採用している。
論文 参考訳(メタデータ) (2024-09-26T02:24:03Z) - GLiRA: Black-Box Membership Inference Attack via Knowledge Distillation [4.332441337407564]
我々は,会員推論攻撃に対する感受性と,蒸留による攻撃を盗む機能に対する脆弱性との関係について検討する。
我々は,ブラックボックスニューラルネットワークに対するメンバシップ推論攻撃に対する蒸留誘導型アプローチであるGLiRAを提案する。
提案手法は,複数の画像分類データセットおよびモデルにまたがって評価され,知識蒸留によって誘導された場合の確率比攻撃が,ブラックボックス設定における最先端の会員推論攻撃よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-13T08:52:04Z) - BB-Patch: BlackBox Adversarial Patch-Attack using Zeroth-Order Optimization [10.769992215544358]
敵の攻撃戦略は、敵が訓練データ、モデルパラメータ、配置中の入力にアクセスすることを前提としている。
入力画像のどこにでも適用可能な敵パッチを生成するブラックボックスの敵攻撃戦略を提案する。
論文 参考訳(メタデータ) (2024-05-09T18:42:26Z) - Poisoning Federated Recommender Systems with Fake Users [48.70867241987739]
フェデレーテッド・レコメンデーションは、フェデレーテッド・ラーニングにおける顕著なユースケースである。
本稿では,攻撃対象のアイテムを宣伝するために,PisonFRSという偽ユーザによる新たな毒殺攻撃を導入する。
複数の実世界のデータセットに対する実験では、PoisonFRSが攻撃者-チョセンアイテムを真のユーザの大部分に効果的にプロモートできることが示されている。
論文 参考訳(メタデータ) (2024-02-18T16:34:12Z) - Generalizable Black-Box Adversarial Attack with Meta Learning [54.196613395045595]
ブラックボックス攻撃では、ターゲットモデルのパラメータが不明であり、攻撃者はクエリのフィードバックに基づいて、クエリの予算に基づいて摂動を成功させることを目指している。
本稿では,実例レベルの逆転可能性という,過去の攻撃に対するフィードバック情報を活用することを提案する。
この2種類の逆転送性を持つフレームワークは,市販のクエリベースのアタック手法と自然に組み合わせて性能を向上させることができる。
論文 参考訳(メタデータ) (2023-01-01T07:24:12Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - Poisoning Deep Learning based Recommender Model in Federated Learning
Scenarios [7.409990425668484]
我々は、統合学習シナリオにおけるディープラーニングに基づくレコメンデータモデルをターゲットにしたアタックアプローチを設計する。
私たちのよく設計された攻撃は、ターゲットモデルに効果的に毒を盛ることができ、攻撃の有効性は最先端のものである。
論文 参考訳(メタデータ) (2022-04-26T15:23:05Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Attacking Black-box Recommendations via Copying Cross-domain User
Profiles [47.48722020494725]
本稿では,プロファイルを対象ドメインにコピーすることで,実際のユーザをソースドメインから活用するフレームワークを提案する。
CopyAttackの目標は、ターゲットドメイン内のユーザのTop-k$レコメンデーションリストにあるターゲットアイテムのヒット率を最大化することである。
論文 参考訳(メタデータ) (2020-05-17T02:10:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。