論文の概要: Navigating the Black Box: Leveraging LLMs for Effective Text-Level Graph Injection Attacks
- arxiv url: http://arxiv.org/abs/2506.13276v1
- Date: Mon, 16 Jun 2025 09:16:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.98624
- Title: Navigating the Black Box: Leveraging LLMs for Effective Text-Level Graph Injection Attacks
- Title(参考訳): ブラックボックスのナビゲーション: 効果的なテキストレベルグラフインジェクション攻撃のためのLCMの活用
- Authors: Yuefei Lyu, Chaozhuo Li, Xi Zhang, Tianle Zhang,
- Abstract要約: 本稿では,テキスト分散グラフ(TAG)に適した新しいブラックボックスGIAフレームワークであるATAG-LLMを紹介する。
提案手法は,大言語モデル(LLM)を利用して,解釈可能なテキストレベルのノード属性を直接生成する。
厳格なブラックボックス設定では、ターゲットノードを最小限のトレーニングコストで効率よく摂動し、TAGに対するテキストレベルのグラフインジェクション攻撃を確実にする。
- 参考スコア(独自算出の注目度): 14.181622082567124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-attributed graphs (TAGs) integrate textual data with graph structures, providing valuable insights in applications such as social network analysis and recommendation systems. Graph Neural Networks (GNNs) effectively capture both topological structure and textual information in TAGs but are vulnerable to adversarial attacks. Existing graph injection attack (GIA) methods assume that attackers can directly manipulate the embedding layer, producing non-explainable node embeddings. Furthermore, the effectiveness of these attacks often relies on surrogate models with high training costs. Thus, this paper introduces ATAG-LLM, a novel black-box GIA framework tailored for TAGs. Our approach leverages large language models (LLMs) to generate interpretable text-level node attributes directly, ensuring attacks remain feasible in real-world scenarios. We design strategies for LLM prompting that balance exploration and reliability to guide text generation, and propose a similarity assessment method to evaluate attack text effectiveness in disrupting graph homophily. This method efficiently perturbs the target node with minimal training costs in a strict black-box setting, ensuring a text-level graph injection attack for TAGs. Experiments on real-world TAG datasets validate the superior performance of ATAG-LLM compared to state-of-the-art embedding-level and text-level attack methods.
- Abstract(参考訳): テキスト分散グラフ(TAG)は、テキストデータをグラフ構造と統合し、ソーシャルネットワーク分析やレコメンデーションシステムなどのアプリケーションにおいて貴重な洞察を提供する。
グラフニューラルネットワーク(GNN)は、TAGのトポロジ的構造とテキスト情報の両方を効果的にキャプチャするが、敵の攻撃に対して脆弱である。
既存のグラフインジェクション攻撃(GIA)手法は、攻撃者が直接埋め込み層を操作でき、説明不能なノード埋め込みを生成することを前提としている。
さらに、これらの攻撃の有効性は、高い訓練コストのサロゲートモデルに依存することが多い。
そこで本稿では,TAGに適した新しいブラックボックスGIAフレームワークであるATAG-LLMを紹介する。
提案手法では,大規模言語モデル(LLM)を用いて,解釈可能なテキストレベルのノード属性を直接生成し,実際のシナリオで攻撃が実行可能であることを保証する。
我々は, LLM の手法を設計し, バランス探索と信頼性を向上してテキスト生成を誘導し, グラフを均質に破壊する際の攻撃テキストの有効性を評価する類似性評価手法を提案する。
厳格なブラックボックス設定において、ターゲットノードを最小限のトレーニングコストで効率的に摂動し、TAGに対するテキストレベルのグラフインジェクション攻撃を確実にする。
実世界のTAGデータセットの実験は、最先端の埋め込みレベルおよびテキストレベルの攻撃方法と比較してATAG-LLMの優れた性能を検証する。
関連論文リスト
- TrustGLM: Evaluating the Robustness of GraphLLMs Against Prompt, Text, and Structure Attacks [3.3238054848751535]
テキスト,グラフ構造,即時操作の3次元にわたる敵攻撃に対するGraphLLMの脆弱性を評価する総合的研究であるTrustGLMを紹介する。
この結果から,GraphLLMsは,ノードのテキスト属性に含まれる意味論的に類似した単語を置き換えるだけで,テキスト攻撃に非常に敏感であることが判明した。
また、標準グラフ構造攻撃手法はモデル性能を著しく低下させるが、プロンプトテンプレートで候補ラベルセットをランダムにシャッフルすると性能が大幅に低下する。
論文 参考訳(メタデータ) (2025-06-13T14:48:01Z) - Efficient Text-Attributed Graph Learning through Selective Annotation and Graph Alignment [24.0890725396281]
本稿では,TAG表現学習のための効率的なフレームワークであるGAGAを紹介する。
これは、代表ノードとエッジのみにアノテートすることに集中することで、アノテーションの時間とコストを削減する。
実験の結果,GAGA分類は最先端の手法と同等以上の精度を達成できることがわかった。
論文 参考訳(メタデータ) (2025-06-08T14:34:29Z) - SaVe-TAG: Semantic-aware Vicinal Risk Minimization for Long-Tailed Text-Attributed Graphs [16.24571541782205]
実世界のグラフデータは、しばしば長い尾の分布に従うため、グラフニューラルネットワーク(GNN)が頭と尾の両方のクラスをうまく一般化することは困難である。
ウイルスリスク最小化(VRM)の最近の進歩は、クラス不均衡と数値意味論の緩和の可能性を示唆している。
論文 参考訳(メタデータ) (2024-10-22T10:36:15Z) - Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - Intruding with Words: Towards Understanding Graph Injection Attacks at the Text Level [21.003091265006102]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションにまたがるが、敵の攻撃に弱いままである。
本稿では,テキストレベルでのグラフインジェクションアタック(GIA)の探索の先駆者となる。
埋め込みレベルで見過ごされた要素であるテキストの解釈可能性(英語版)が、攻撃強度において重要な役割を担っていることを示す。
論文 参考訳(メタデータ) (2024-05-26T02:12:02Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。