論文の概要: JANUS: A Dual-Constraint Generative Framework for Stealthy Node Injection Attacks
- arxiv url: http://arxiv.org/abs/2509.13266v1
- Date: Tue, 16 Sep 2025 17:24:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.198591
- Title: JANUS: A Dual-Constraint Generative Framework for Stealthy Node Injection Attacks
- Title(参考訳): JANUS: 静的なノードインジェクション攻撃のためのデュアル制約生成フレームワーク
- Authors: Jiahao Zhang, Xiaobing Pei, Zhaokun Zhong, Wenqiang Hao, Zhenghao Tang,
- Abstract要約: グラフニューラルネットワーク(GNN)は、様々なアプリケーションで顕著なパフォーマンスを示しているが、高度な敵攻撃には弱い。
我々は、JANUS(Joint Alignment of Nodal and Universal Structures)と呼ばれる二重拘束ステルスノード注入フレームワークを提案する。
局所的なレベルでは、特徴空間における幾何的整合性を達成するために、局所的特徴多様体アライメント戦略を導入する。
グローバルレベルでは、構造化潜在変数を組み込んで、生成した構造との相互情報を最大化し、注入された構造が元のグラフのセマンティックパターンと整合していることを保証する。
- 参考スコア(独自算出の注目度): 3.543515488496546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have demonstrated remarkable performance across various applications, yet they are vulnerable to sophisticated adversarial attacks, particularly node injection attacks. The success of such attacks heavily relies on their stealthiness, the ability to blend in with the original graph and evade detection. However, existing methods often achieve stealthiness by relying on indirect proxy metrics, lacking consideration for the fundamental characteristics of the injected content, or focusing only on imitating local structures, which leads to the problem of local myopia. To overcome these limitations, we propose a dual-constraint stealthy node injection framework, called Joint Alignment of Nodal and Universal Structures (JANUS). At the local level, we introduce a local feature manifold alignment strategy to achieve geometric consistency in the feature space. At the global level, we incorporate structured latent variables and maximize the mutual information with the generated structures, ensuring the injected structures are consistent with the semantic patterns of the original graph. We model the injection attack as a sequential decision process, which is optimized by a reinforcement learning agent. Experiments on multiple standard datasets demonstrate that the JANUS framework significantly outperforms existing methods in terms of both attack effectiveness and stealthiness.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、様々なアプリケーションで顕著なパフォーマンスを示しているが、高度な敵攻撃、特にノードインジェクション攻撃には弱い。
このような攻撃の成功は、そのステルス性、元のグラフと混ざり合い、検出を回避できる能力に大きく依存している。
しかし,既存の手法では,間接的プロキシ指標を頼りにすることや,インジェクトされたコンテンツの基本的な特徴を考慮しないこと,あるいは局所的なミオピアの問題を招き,局所的な構造を模倣することのみに焦点をあてることによって,ステルスネスを実現することが多い。
このような制約を克服するために,JANUS (Joint Alignment of Nodal and Universal Structures) と呼ばれる二拘束型ステルスノードインジェクションフレームワークを提案する。
局所的なレベルでは、特徴空間における幾何的整合性を達成するために、局所的特徴多様体アライメント戦略を導入する。
グローバルレベルでは、構造化潜在変数を組み込んで、生成した構造との相互情報を最大化し、注入された構造が元のグラフのセマンティックパターンと整合していることを保証する。
我々は、インジェクション攻撃を、強化学習エージェントによって最適化された逐次決定プロセスとしてモデル化する。
複数の標準データセットの実験により、JANUSフレームワークは、攻撃の有効性とステルスネスの両方の観点から、既存の手法を著しく上回っていることが示されている。
関連論文リスト
- Adversarial Attacks and Defenses on Graph-aware Large Language Models (LLMs) [8.885929731174492]
大規模言語モデル(LLM)は、ノード分類のようなタスクのためのグラフ構造化データとますます統合されています。
グラフベースモデルに適した既存の敵攻撃手法を活用することにより、グラフ対応LCMの脆弱性を調査する第一歩を踏み出す。
本稿では,LLMをベースとした特徴補正モジュールを併用して特徴レベルの摂動を軽減し,構造的攻撃から保護するためのGNNディフェンスを適応させる,エンドツーエンドのディフェンスフレームワークGALGUARDを提案する。
論文 参考訳(メタデータ) (2025-08-06T21:38:52Z) - LiSA: Leveraging Link Recommender to Attack Graph Neural Networks via Subgraph Injection [7.469200949273278]
本稿では,GNNシステム内のリンクレコメンデータとノード分類の両方を欺くために,孤立したサブグラフを注入する新たな逆シナリオを提案する。
本稿では,2つの対向目的を同時に満たすために,二重サロゲートモデルと双方向最適化を用いたLiSAフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-13T12:33:39Z) - Query-Based and Unnoticeable Graph Injection Attack from Neighborhood Perspective [5.29403129046676]
QUGIAはクエリベースの無意味グラフインジェクションアタックである。
被害者ノード接続に基づいてエッジを選択し、ベイズフレームワークを使用してノード機能を生成することで、ノードを注入する。
これにより、インジェクションされたノードが元のグラフノードと似ており、暗黙的にホモフィリを保ち、攻撃をより目立たないものにすることができる。
論文 参考訳(メタデータ) (2025-02-04T02:11:57Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。