論文の概要: TrustGLM: Evaluating the Robustness of GraphLLMs Against Prompt, Text, and Structure Attacks
- arxiv url: http://arxiv.org/abs/2506.11844v1
- Date: Fri, 13 Jun 2025 14:48:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.835999
- Title: TrustGLM: Evaluating the Robustness of GraphLLMs Against Prompt, Text, and Structure Attacks
- Title(参考訳): TrustGLM: プロンプト、テキスト、構造攻撃に対するGraphLLMのロバスト性を評価する
- Authors: Qihai Zhang, Xinyue Sheng, Yuanfu Sun, Qiaoyu Tan,
- Abstract要約: テキスト,グラフ構造,即時操作の3次元にわたる敵攻撃に対するGraphLLMの脆弱性を評価する総合的研究であるTrustGLMを紹介する。
この結果から,GraphLLMsは,ノードのテキスト属性に含まれる意味論的に類似した単語を置き換えるだけで,テキスト攻撃に非常に敏感であることが判明した。
また、標準グラフ構造攻撃手法はモデル性能を著しく低下させるが、プロンプトテンプレートで候補ラベルセットをランダムにシャッフルすると性能が大幅に低下する。
- 参考スコア(独自算出の注目度): 3.3238054848751535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inspired by the success of large language models (LLMs), there is a significant research shift from traditional graph learning methods to LLM-based graph frameworks, formally known as GraphLLMs. GraphLLMs leverage the reasoning power of LLMs by integrating three key components: the textual attributes of input nodes, the structural information of node neighborhoods, and task-specific prompts that guide decision-making. Despite their promise, the robustness of GraphLLMs against adversarial perturbations remains largely unexplored-a critical concern for deploying these models in high-stakes scenarios. To bridge the gap, we introduce TrustGLM, a comprehensive study evaluating the vulnerability of GraphLLMs to adversarial attacks across three dimensions: text, graph structure, and prompt manipulations. We implement state-of-the-art attack algorithms from each perspective to rigorously assess model resilience. Through extensive experiments on six benchmark datasets from diverse domains, our findings reveal that GraphLLMs are highly susceptible to text attacks that merely replace a few semantically similar words in a node's textual attribute. We also find that standard graph structure attack methods can significantly degrade model performance, while random shuffling of the candidate label set in prompt templates leads to substantial performance drops. Beyond characterizing these vulnerabilities, we investigate defense techniques tailored to each attack vector through data-augmented training and adversarial training, which show promising potential to enhance the robustness of GraphLLMs. We hope that our open-sourced library will facilitate rapid, equitable evaluation and inspire further innovative research in this field.
- Abstract(参考訳): 大規模言語モデル(LLMs)の成功に触発されて、従来のグラフ学習手法から、正式にはGraphLLMsとして知られるLLMベースのグラフフレームワークへの大きな変化があった。
GraphLLMは、入力ノードのテキスト属性、ノード近傍の構造情報、意思決定を導くタスク固有のプロンプトの3つの重要なコンポーネントを統合することで、LCMの推論能力を利用する。
それらの約束にもかかわらず、敵の摂動に対するGraphLLMsの堅牢性は、まだ明らかにされていない。
このギャップを埋めるために,テキスト,グラフ構造,即時操作の3次元にわたる敵攻撃に対するGraphLLMsの脆弱性を評価する総合的研究であるTrustGLMを紹介した。
モデルレジリエンスを厳格に評価するために,各視点から最先端攻撃アルゴリズムを実装した。
多様なドメインから得られた6つのベンチマークデータセットに関する広範な実験により、GraphLLMsは、ノードのテキスト属性のいくつかの意味論的に類似した単語を置き換えるだけで、テキストアタックに非常に敏感であることが判明した。
また、標準グラフ構造攻撃手法はモデル性能を著しく低下させるが、プロンプトテンプレートで候補ラベルセットをランダムにシャッフルすると性能が大幅に低下する。
これらの脆弱性を特徴づける以外に、グラフLLMの堅牢性を高める有望な可能性を示すデータ強化トレーニングと対角訓練を通じて、各攻撃ベクトルに合わせた防御手法を調査する。
当社のオープンソースライブラリが、迅速かつ公平な評価を促進し、この分野におけるさらなる革新的な研究を促すことを期待しています。
関連論文リスト
- Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - GMLM: Bridging Graph Neural Networks and Language Models for Heterophilic Node Classification [0.0]
我々は,グラフニューラルネットワーク (GNN) と事前学習言語モデル (PLM) を効率的に組み合わせた新しいアーキテクチャである textbfGraph Masked Language Model (GMLM) を提案する。
GMLMは3つの重要なイノベーションを紹介している: (i) スケーラブルなPLMテキスト処理のためのtextbfdynamic 能動ノード選択戦略; (ii) 学習可能なグラフtextt[MASK]トークンによるソフトマスクを用いたGNN固有のtextbfcontrastive pretrainingステージ; (iii) テキストbfdicated fusion。
論文 参考訳(メタデータ) (2025-02-24T07:44:01Z) - Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - Intruding with Words: Towards Understanding Graph Injection Attacks at the Text Level [21.003091265006102]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションにまたがるが、敵の攻撃に弱いままである。
本稿では,テキストレベルでのグラフインジェクションアタック(GIA)の探索の先駆者となる。
埋め込みレベルで見過ごされた要素であるテキストの解釈可能性(英語版)が、攻撃強度において重要な役割を担っていることを示す。
論文 参考訳(メタデータ) (2024-05-26T02:12:02Z) - On the Adversarial Robustness of Graph Contrastive Learning Methods [9.675856264585278]
本稿では,グラフコントラスト学習(GCL)モデルのロバスト性を評価するために,包括的評価ロバストネスプロトコルを提案する。
我々はこれらのモデルを,グラフ構造をターゲットとした適応的敵攻撃,特に回避シナリオに適用する。
本研究は,GCL手法の堅牢性に関する知見を提供することを目標とし,今後の研究方向の道を開くことを期待する。
論文 参考訳(メタデータ) (2023-11-29T17:59:18Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Software Vulnerability Detection via Deep Learning over Disaggregated
Code Graph Representation [57.92972327649165]
この研究は、コードコーパスから安全でないパターンを自動的に学習するためのディープラーニングアプローチを探求する。
コードには解析を伴うグラフ構造が自然に認められるため,プログラムの意味的文脈と構造的規則性の両方を利用する新しいグラフニューラルネットワーク(GNN)を開発する。
論文 参考訳(メタデータ) (2021-09-07T21:24:36Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。