論文の概要: Unveiling the Vulnerability of Graph-LLMs: An Interpretable Multi-Dimensional Adversarial Attack on TAGs
- arxiv url: http://arxiv.org/abs/2510.12233v1
- Date: Tue, 14 Oct 2025 07:36:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 21:19:14.977378
- Title: Unveiling the Vulnerability of Graph-LLMs: An Interpretable Multi-Dimensional Adversarial Attack on TAGs
- Title(参考訳): グラフLLMの脆弱性の解明:TAGに対する解釈可能な多次元逆アタック
- Authors: Bowen Fan, Zhilin Guo, Xunkai Li, Yihan Zhou, Bing Zhou, Zhenjun Li, Rong-Hua Li, Guoren Wang,
- Abstract要約: Interpretable Multi-dimensional Graph Attack (IMDGA) は、グラフLLMのための新しい人間中心の敵攻撃フレームワークである。
IMDGAは既存の手法に比べて優れた解釈可能性、攻撃効果、ステルス性、堅牢性を示す。
この研究は、Graph-LLMの未調査の脆弱性のセマンティックディメンションを明らかにし、レジリエンスを改善するための貴重な洞察を提供する。
- 参考スコア(独自算出の注目度): 35.900360659024585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have become a pivotal framework for modeling graph-structured data, enabling a wide range of applications from social network analysis to molecular chemistry. By integrating large language models (LLMs), text-attributed graphs (TAGs) enhance node representations with rich textual semantics, significantly boosting the expressive power of graph-based learning. However, this sophisticated synergy introduces critical vulnerabilities, as Graph-LLMs are susceptible to adversarial attacks on both their structural topology and textual attributes. Although specialized attack methods have been designed for each of these aspects, no work has yet unified them into a comprehensive approach. In this work, we propose the Interpretable Multi-Dimensional Graph Attack (IMDGA), a novel human-centric adversarial attack framework designed to orchestrate multi-level perturbations across both graph structure and textual features. IMDGA utilizes three tightly integrated modules to craft attacks that balance interpretability and impact, enabling a deeper understanding of Graph-LLM vulnerabilities. Through rigorous theoretical analysis and comprehensive empirical evaluations on diverse datasets and architectures, IMDGA demonstrates superior interpretability, attack effectiveness, stealthiness, and robustness compared to existing methods. By exposing critical weaknesses in TAG representation learning, this work uncovers a previously underexplored semantic dimension of vulnerability in Graph-LLMs, offering valuable insights for improving their resilience. Our code and resources are publicly available at https://anonymous.4open.science/r/IMDGA-7289.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて重要なフレームワークとなり、ソーシャルネットワーク分析から分子化学まで幅広い応用を可能にしている。
大規模言語モデル(LLM)を統合することで、テキスト分散グラフ(TAG)は、リッチテキストセマンティクスによるノード表現を強化し、グラフベースの学習の表現力を大幅に向上させる。
しかし、この洗練されたシナジーは、Graph-LLMが構造的トポロジとテキスト属性の両方に対する敵対的な攻撃を受けやすいため、致命的な脆弱性をもたらす。
これらの側面ごとに特殊な攻撃方法が設計されているが、包括的なアプローチでそれらを統一する作業はまだ行われていない。
本研究は,多段階摂動をグラフ構造とテキストの特徴の両方にわたってオーケストレーションする,新たな人間中心の対角攻撃フレームワークである,解釈可能な多次元グラフ攻撃(IMDGA)を提案する。
IMDGAは、3つの密に統合されたモジュールを使用して、解釈可能性と影響のバランスをとる攻撃を実行し、Graph-LLM脆弱性のより深い理解を可能にする。
多様なデータセットやアーキテクチャに関する厳密な理論的分析と包括的な経験的評価を通じて、IMDGAは既存の手法と比較して優れた解釈可能性、攻撃効果、ステルスネス、堅牢性を示す。
TAG表現学習の重大な弱点を明らかにすることで、この研究は、Graph-LLMsの脆弱性に関する未調査のセマンティックディメンションを明らかにし、レジリエンスを改善する上で貴重な洞察を提供する。
私たちのコードとリソースはhttps://anonymous.4open.science/r/IMDGA-7289で公開されています。
関連論文リスト
- G-reasoner: Foundation Models for Unified Reasoning over Graph-structured Knowledge [88.82814893945077]
大規模言語モデル(LLM)は複雑な推論において優れているが、静的かつ不完全なパラメトリック知識によって制限される。
最近のグラフ強化RAG (GraphRAG) は、このギャップを補足したグラフを構築し、LLMがそれらを推論できるようにする。
G-reasonerは、様々なグラフ構造化知識を推論するためにグラフと言語基盤モデルを統合した統合フレームワークである。
論文 参考訳(メタデータ) (2025-09-29T04:38:12Z) - Explainable Attention-Guided Stacked Graph Neural Networks for Malware Detection [2.6436521007616114]
本稿では,グラフベースのマルウェア検出と説明のための新しいスタックングアンサンブルフレームワークを提案する。
本フレームワークは,マルウェアの行動に関する洞察に富んだ解釈を提供しながら,分類性能を向上させる。
論文 参考訳(メタデータ) (2025-08-13T13:33:02Z) - TrustGLM: Evaluating the Robustness of GraphLLMs Against Prompt, Text, and Structure Attacks [3.3238054848751535]
テキスト,グラフ構造,即時操作の3次元にわたる敵攻撃に対するGraphLLMの脆弱性を評価する総合的研究であるTrustGLMを紹介する。
この結果から,GraphLLMsは,ノードのテキスト属性に含まれる意味論的に類似した単語を置き換えるだけで,テキスト攻撃に非常に敏感であることが判明した。
また、標準グラフ構造攻撃手法はモデル性能を著しく低下させるが、プロンプトテンプレートで候補ラベルセットをランダムにシャッフルすると性能が大幅に低下する。
論文 参考訳(メタデータ) (2025-06-13T14:48:01Z) - GMLM: Bridging Graph Neural Networks and Language Models for Heterophilic Node Classification [0.0]
本稿では,事前学習したテキストエンコーダとグラフ畳み込みネットワーク(R-GCN)を効果的に融合するフレームワークを提案する。
5つのヘテロ親和性ベンチマークの実験により、我々の積分法は最先端の結果が得られることを示した。
これらの結果は,テキストリッチグラフ表現学習における融合戦略の有効性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-02-24T07:44:01Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - Revisiting Adversarial Attacks on Graph Neural Networks for Graph
Classification [38.339503144719984]
本稿では,グラフ構造とノード特徴を操作することで,敵の例を生成する新しい汎用フレームワークを提案する。
具体的には,グラフ分類タスクに対応するノードレベルの重要度を生成するために,グラフクラスマッピングとその変種を利用する。
6つの実世界のベンチマークで4つの最先端グラフ分類モデルを攻撃する実験は、我々のフレームワークの柔軟性と有効性を検証する。
論文 参考訳(メタデータ) (2022-08-13T13:41:44Z) - Software Vulnerability Detection via Deep Learning over Disaggregated
Code Graph Representation [57.92972327649165]
この研究は、コードコーパスから安全でないパターンを自動的に学習するためのディープラーニングアプローチを探求する。
コードには解析を伴うグラフ構造が自然に認められるため,プログラムの意味的文脈と構造的規則性の両方を利用する新しいグラフニューラルネットワーク(GNN)を開発する。
論文 参考訳(メタデータ) (2021-09-07T21:24:36Z) - GraphAttacker: A General Multi-Task GraphAttack Framework [4.218118583619758]
グラフニューラルネットワーク(GNN)は多くの実世界のアプリケーションでグラフ解析タスクにうまく活用されている。
攻撃者が生成した敵のサンプルは ほとんど知覚不能な摂動で 優れた攻撃性能を達成しました
本稿では,グラフ解析タスクに応じて構造と攻撃戦略を柔軟に調整可能な,新しい汎用グラフ攻撃フレームワークであるgraphattackerを提案する。
論文 参考訳(メタデータ) (2021-01-18T03:06:41Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。