論文の概要: GRAPHTEXTACK: A Realistic Black-Box Node Injection Attack on LLM-Enhanced GNNs
- arxiv url: http://arxiv.org/abs/2511.12423v1
- Date: Sun, 16 Nov 2025 02:42:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.085107
- Title: GRAPHTEXTACK: A Realistic Black-Box Node Injection Attack on LLM-Enhanced GNNs
- Title(参考訳): GRAPHTEXTACK: LLM強化GNN上での現実的なブラックボックスノードインジェクション攻撃
- Authors: Jiaji Ma, Puja Trivedi, Danai Koutra,
- Abstract要約: 最近の研究は、大規模言語モデルとグラフニューラルネットワーク(GNN)を統合し、セマンティクスと構造を共同でモデル化している。
GNNは構造的摂動に敏感であり、LSM由来の機能はインジェクションや対向的摂動に弱い。
これらのギャップに対処するために, LLM強化GNNに対する最初のブラックボックス, マルチモーダル, 中毒ノードインジェクション攻撃である Graph TEXTACK を提案する。
- 参考スコア(独自算出の注目度): 17.77340454481932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-attributed graphs (TAGs), which combine structural and textual node information, are ubiquitous across many domains. Recent work integrates Large Language Models (LLMs) with Graph Neural Networks (GNNs) to jointly model semantics and structure, resulting in more general and expressive models that achieve state-of-the-art performance on TAG benchmarks. However, this integration introduces dual vulnerabilities: GNNs are sensitive to structural perturbations, while LLM-derived features are vulnerable to prompt injection and adversarial phrasing. While existing adversarial attacks largely perturb structure or text independently, we find that uni-modal attacks cause only modest degradation in LLM-enhanced GNNs. Moreover, many existing attacks assume unrealistic capabilities, such as white-box access or direct modification of graph data. To address these gaps, we propose GRAPHTEXTACK, the first black-box, multi-modal{, poisoning} node injection attack for LLM-enhanced GNNs. GRAPHTEXTACK injects nodes with carefully crafted structure and semantics to degrade model performance, operating under a realistic threat model without relying on model internals or surrogate models. To navigate the combinatorial, non-differentiable search space of connectivity and feature assignments, GRAPHTEXTACK introduces a novel evolutionary optimization framework with a multi-objective fitness function that balances local prediction disruption and global graph influence. Extensive experiments on five datasets and two state-of-the-art LLM-enhanced GNN models show that GRAPHTEXTACK significantly outperforms 12 strong baselines.
- Abstract(参考訳): 構造化ノード情報とテキストノード情報を組み合わせたテキスト分散グラフ(TAG)は、多くのドメインにまたがってユビキタスである。
最近の研究は、Large Language Models(LLM)とGraph Neural Networks(GNN)を統合して、セマンティクスと構造を共同でモデル化している。
しかし、この統合は二重脆弱性をもたらす:GNNは構造的摂動に敏感であり、LSM由来の機能はインジェクションや対向的な表現に弱い。
既存の敵攻撃は、主に摂動構造やテキストを独立に攻撃するが、一様攻撃はLLM強化GNNにおいてわずかに低下する。
さらに、多くの既存の攻撃は、ホワイトボックスアクセスやグラフデータの直接修正など、非現実的な機能を前提としている。
これらのギャップに対処するため,LSM強化GNNに対して,最初のブラックボックスであるmulti-modal{, poisoning}ノードインジェクション攻撃である GraphTEXTACK を提案する。
GRAPHTEXTACKは、モデル内部や代理モデルに頼ることなく、現実的な脅威モデルの下で動作し、モデルパフォーマンスを劣化させるために、注意深く構築された構造と意味を持ったノードを注入する。
接続性と特徴割り当ての組合せで微分不可能な検索空間をナビゲートするために、 GraphTEXTACKは、局所的な予測破壊とグローバルグラフの影響のバランスをとる多目的フィットネス機能を備えた、新しい進化的最適化フレームワークを導入した。
5つのデータセットと2つの最先端のLLM強化GNNモデルに対する大規模な実験は、 GraphTEXTACKが12の強いベースラインを大幅に上回っていることを示している。
関連論文リスト
- Unveiling the Vulnerability of Graph-LLMs: An Interpretable Multi-Dimensional Adversarial Attack on TAGs [35.900360659024585]
Interpretable Multi-dimensional Graph Attack (IMDGA) は、グラフLLMのための新しい人間中心の敵攻撃フレームワークである。
IMDGAは既存の手法に比べて優れた解釈可能性、攻撃効果、ステルス性、堅牢性を示す。
この研究は、Graph-LLMの未調査の脆弱性のセマンティックディメンションを明らかにし、レジリエンスを改善するための貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-10-14T07:36:07Z) - GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - Unifying Adversarial Perturbation for Graph Neural Networks [46.74046710620528]
本稿では,ノードの特徴やグラフ構造に対する敵対攻撃に対するグラフニューラルネットワーク(GNN)の脆弱性について検討する。
本稿では、敵の摂動と訓練を統合したPerturbEmbeddingを提案し、そのような攻撃に対するGNNの弾力性を高める。
我々は、PerturbEmbeddingがGNNの堅牢性と一般化能力の両方を大幅に改善し、既存の手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2025-08-30T06:53:36Z) - Adversarial Attacks and Defenses on Graph-aware Large Language Models (LLMs) [8.885929731174492]
大規模言語モデル(LLM)は、ノード分類のようなタスクのためのグラフ構造化データとますます統合されています。
グラフベースモデルに適した既存の敵攻撃手法を活用することにより、グラフ対応LCMの脆弱性を調査する第一歩を踏み出す。
本稿では,LLMをベースとした特徴補正モジュールを併用して特徴レベルの摂動を軽減し,構造的攻撃から保護するためのGNNディフェンスを適応させる,エンドツーエンドのディフェンスフレームワークGALGUARDを提案する。
論文 参考訳(メタデータ) (2025-08-06T21:38:52Z) - Do We Really Need GNNs with Explicit Structural Modeling? MLPs Suffice for Language Model Representations [50.45261187796993]
グラフニューラルネットワーク(GNN)は構造情報を十分に活用できないが、MLP(Multi-Layer Perceptrons)は構造認識タスクにおいて驚くべき能力を示す。
本稿では,情報理論の観点から総合的な探索フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-26T18:10:28Z) - GL-Fusion: Rethinking the Combination of Graph Neural Network and Large Language model [63.774726052837266]
グラフニューラルネットワーク(GNN)とLarge Language Models(LLM)を深く統合した新しいアーキテクチャを導入する。
本稿では,(1)GNNのメッセージパッシング機能を直接LLMのトランスフォーマー層に組み込む構造対応トランスフォーマー,(2)グラフノードとエッジから圧縮されていない全テキストを処理するグラフテキストクロスアテンション,(3)GNN-LLMツインプレクタ,(3)GNN-LLMツインプレクタ,3)GNNのスケーラブルなワンパス予測とともに,LLMの柔軟な自己回帰生成を実現する。
論文 参考訳(メタデータ) (2024-12-08T05:49:58Z) - Exploring the Potential of Large Language Models for Heterophilic Graphs [38.79574338268997]
大規模言語モデル(LLM)を用いた異種グラフモデリングのための2段階フレームワークを提案する。
第1段階では、LLMを微調整して、ノードのテキスト内容に基づいて、同好および異好のエッジをより正確に識別する。
第2段階では,ノードの特徴,構造,ヘテロ親和性,ホモ親和性といった特徴に基づいて,異なるエッジタイプに対するGNNのメッセージ伝搬を適応的に管理する。
論文 参考訳(メタデータ) (2024-08-26T09:29:56Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - ASGNN: Graph Neural Networks with Adaptive Structure [41.83813812538167]
本稿では,アダプティブ構造(ASMP)を用いた新しい解釈可能なメッセージパッシング方式を提案する。
ASMPは、異なるレイヤにおけるメッセージパッシングプロセスが動的に調整されたグラフ上で実行可能であるという意味で適応的である。
論文 参考訳(メタデータ) (2022-10-03T15:10:40Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。