論文の概要: Single-Node Trigger Backdoor Attacks in Graph-Based Recommendation Systems
- arxiv url: http://arxiv.org/abs/2506.08401v1
- Date: Tue, 10 Jun 2025 03:19:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:41.352986
- Title: Single-Node Trigger Backdoor Attacks in Graph-Based Recommendation Systems
- Title(参考訳): グラフベースレコメンデーションシステムにおけるシングルノードトリガーバックドアアタック
- Authors: Runze Li, Di Jin, Xiaobao Wang, Dongxiao He, Bingdao Feng, Zhen Wang,
- Abstract要約: 本稿では,対象ユーザに対する対象アイテムの露出を高めるため,新たなグラフバックドア攻撃手法を提案する。
対象ノードと無関係ノード間の制約条件を導入し、偽ノードがレコメンデーションシステムの性能に与える影響を軽減する。
- 参考スコア(独自算出の注目度): 23.048877848088736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph recommendation systems have been widely studied due to their ability to effectively capture the complex interactions between users and items. However, these systems also exhibit certain vulnerabilities when faced with attacks. The prevailing shilling attack methods typically manipulate recommendation results by injecting a large number of fake nodes and edges. However, such attack strategies face two primary challenges: low stealth and high destructiveness. To address these challenges, this paper proposes a novel graph backdoor attack method that aims to enhance the exposure of target items to the target user in a covert manner, without affecting other unrelated nodes. Specifically, we design a single-node trigger generator, which can effectively expose multiple target items to the target user by inserting only one fake user node. Additionally, we introduce constraint conditions between the target nodes and irrelevant nodes to mitigate the impact of fake nodes on the recommendation system's performance. Experimental results show that the exposure of the target items reaches no less than 50% in 99% of the target users, while the impact on the recommendation system's performance is controlled within approximately 5%.
- Abstract(参考訳): グラフレコメンデーションシステムは、ユーザとアイテム間の複雑なインタラクションを効果的にキャプチャする能力のために、広く研究されている。
しかし、これらのシステムは、攻撃に直面した際にも、特定の脆弱性を示す。
一般的なシリング攻撃法は、多くの偽ノードとエッジを注入することで推奨結果を操作する。
しかし、このような攻撃戦略は2つの主要な課題に直面している。
これらの課題に対処するため,本研究では,他の無関係なノードに影響を与えることなく,対象ユーザへのターゲット項目の露出を隠蔽的に促進することを目的とした,新たなグラフバックドアアタック手法を提案する。
具体的には、1つの偽ユーザノードのみを挿入することで、ターゲットユーザに対して複数のターゲットアイテムを効果的に公開できる単一ノードトリガジェネレータを設計する。
さらに,対象ノードと無関係ノード間の制約条件を導入し,偽ノードがレコメンデーションシステムの性能に与える影響を軽減する。
実験結果から,対象ユーザの99%が対象項目の暴露率を50%以下に抑える一方,推奨システムの性能への影響は5%程度に抑えられた。
関連論文リスト
- LiSA: Leveraging Link Recommender to Attack Graph Neural Networks via Subgraph Injection [7.469200949273278]
本稿では,GNNシステム内のリンクレコメンデータとノード分類の両方を欺くために,孤立したサブグラフを注入する新たな逆シナリオを提案する。
本稿では,2つの対向目的を同時に満たすために,二重サロゲートモデルと双方向最適化を用いたLiSAフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-13T12:33:39Z) - Grimm: A Plug-and-Play Perturbation Rectifier for Graph Neural Networks Defending against Poisoning Attacks [53.972077392749185]
近年の研究では、ノード分類タスクに対する敵対的中毒攻撃に対するグラフニューラルネットワーク(GNN)の脆弱性が明らかにされている。
ここでは、最初のプラグアンドプレイディフェンスモデルであるGrimmを紹介します。
論文 参考訳(メタデータ) (2024-12-11T17:17:02Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - GUARD: Graph Universal Adversarial Defense [54.81496179947696]
GUARD(Graph Universal Adversarial Defense)という,シンプルで効果的な手法を提案する。
GUARDは、各ノードを共通の防御パッチで攻撃から保護する。
GUARDは、複数の敵攻撃に対する複数の確立されたGCNの堅牢性を大幅に改善し、最先端の防御手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-04-20T22:18:12Z) - PipAttack: Poisoning Federated Recommender Systems forManipulating Item
Promotion [58.870444954499014]
一般的な実践は、分散化された連邦学習パラダイムの下でレコメンデーターシステムをサブスクライブすることである。
本稿では,対象項目の促進のために,フェデレートされたレコメンデータシステムをバックドア化するための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-21T06:48:35Z) - Query-based Adversarial Attacks on Graph with Fake Nodes [32.67989796394633]
そこで本研究では,元のグラフに偽ノードの集合を導入することで,新たな敵攻撃を提案する。
具体的には、各被害者ノードに対して、最も敵対的な特徴を取得するよう、被害者モデルに問い合わせる。
私たちの攻撃は実用的で目立たない方法で行われます。
論文 参考訳(メタデータ) (2021-09-27T14:19:17Z) - Single Node Injection Attack against Graph Neural Networks [39.455430635159146]
本稿では,グラフニューラルネットワーク(GNN)における単一ノード注入回避攻撃の極めて限定的なシナリオに焦点を当てる。
実験の結果、3つの公開データセット上の100%、98.60%、94.98%のノードが、1つのエッジで1つのノードを注入するだけで攻撃に成功していることがわかった。
本稿では,攻撃性能を確保しつつ,攻撃効率を向上させるために汎用化可能なノードインジェクションアタックモデルG-NIAを提案する。
論文 参考訳(メタデータ) (2021-08-30T08:12:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。