論文の概要: Robustness in Text-Attributed Graph Learning: Insights, Trade-offs, and New Defenses
- arxiv url: http://arxiv.org/abs/2510.17185v1
- Date: Mon, 20 Oct 2025 05:57:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.324327
- Title: Robustness in Text-Attributed Graph Learning: Insights, Trade-offs, and New Defenses
- Title(参考訳): テキスト分散グラフ学習におけるロバストネス:洞察、トレードオフ、新しい防御
- Authors: Runlin Lei, Lu Yi, Mingguo He, Pengyu Qiu, Zhewei Wei, Yongchao Liu, Chuntao Hong,
- Abstract要約: 我々は,TAG学習における堅牢性を評価するために,統一的で包括的な枠組みを導入する。
我々のフレームワークは、4つのドメインから10データセットにわたる古典的なGNN、堅牢なGNN(RGNN)、グラフLLMを評価する。
本研究は,TAGのセキュリティに関する今後の研究の基盤を確立し,対戦環境におけるTAG学習のための実践的ソリューションを提供する。
- 参考スコア(独自算出の注目度): 34.0252107920933
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: While Graph Neural Networks (GNNs) and Large Language Models (LLMs) are powerful approaches for learning on Text-Attributed Graphs (TAGs), a comprehensive understanding of their robustness remains elusive. Current evaluations are fragmented, failing to systematically investigate the distinct effects of textual and structural perturbations across diverse models and attack scenarios. To address these limitations, we introduce a unified and comprehensive framework to evaluate robustness in TAG learning. Our framework evaluates classical GNNs, robust GNNs (RGNNs), and GraphLLMs across ten datasets from four domains, under diverse text-based, structure-based, and hybrid perturbations in both poisoning and evasion scenarios. Our extensive analysis reveals multiple findings, among which three are particularly noteworthy: 1) models have inherent robustness trade-offs between text and structure, 2) the performance of GNNs and RGNNs depends heavily on the text encoder and attack type, and 3) GraphLLMs are particularly vulnerable to training data corruption. To overcome the identified trade-offs, we introduce SFT-auto, a novel framework that delivers superior and balanced robustness against both textual and structural attacks within a single model. Our work establishes a foundation for future research on TAG security and offers practical solutions for robust TAG learning in adversarial environments. Our code is available at: https://github.com/Leirunlin/TGRB.
- Abstract(参考訳): Graph Neural Networks(GNN)とLarge Language Models(LLM)は、Text-Attributed Graphs(TAG)で学ぶための強力なアプローチであるが、彼らの堅牢性に関する包括的な理解は、いまだ解明されていない。
現在の評価は断片化されており、様々なモデルや攻撃シナリオにおけるテキストと構造的摂動の影響を系統的に調査することができない。
これらの制約に対処するため,TAG学習の堅牢性を評価する統合的・包括的枠組みを導入する。
本フレームワークは,従来のGNN,ロバストGNN(RGNN),グラフLLMを4つのドメインから10個のデータセットに分散し,テキストベース,構造ベース,ハイブリッドな摂動を有毒・回避シナリオの両方で評価する。
分析の結果,特に注目すべき点が3つあることが判明した。
1)本文と構造の間には,本質的な堅牢性トレードオフがある。
2)GNNとRGNNのパフォーマンスはテキストエンコーダとアタックタイプに大きく依存する。
3) GraphLLMは特にデータ破損のトレーニングに弱い。
SFT-autoは,単一モデルにおけるテキスト攻撃と構造攻撃の両方に対して,優れた,バランスの取れた堅牢性を提供する新しいフレームワークである。
本研究は,TAGのセキュリティに関する今後の研究の基盤を確立し,対戦環境におけるTAG学習のための実践的ソリューションを提供する。
私たちのコードは、https://github.com/Leirunlin/TGRB.comで利用可能です。
関連論文リスト
- Unveiling the Vulnerability of Graph-LLMs: An Interpretable Multi-Dimensional Adversarial Attack on TAGs [35.900360659024585]
Interpretable Multi-dimensional Graph Attack (IMDGA) は、グラフLLMのための新しい人間中心の敵攻撃フレームワークである。
IMDGAは既存の手法に比べて優れた解釈可能性、攻撃効果、ステルス性、堅牢性を示す。
この研究は、Graph-LLMの未調査の脆弱性のセマンティックディメンションを明らかにし、レジリエンスを改善するための貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-10-14T07:36:07Z) - TrustGLM: Evaluating the Robustness of GraphLLMs Against Prompt, Text, and Structure Attacks [3.3238054848751535]
テキスト,グラフ構造,即時操作の3次元にわたる敵攻撃に対するGraphLLMの脆弱性を評価する総合的研究であるTrustGLMを紹介する。
この結果から,GraphLLMsは,ノードのテキスト属性に含まれる意味論的に類似した単語を置き換えるだけで,テキスト攻撃に非常に敏感であることが判明した。
また、標準グラフ構造攻撃手法はモデル性能を著しく低下させるが、プロンプトテンプレートで候補ラベルセットをランダムにシャッフルすると性能が大幅に低下する。
論文 参考訳(メタデータ) (2025-06-13T14:48:01Z) - Robustness questions the interpretability of graph neural networks: what to do? [0.10713888959520207]
グラフニューラルネットワーク(GNN)は、グラフベースのデータ分析の基盤となっている。
本稿では,GNNの解釈可能性に対する各種要因の影響を系統的に解析するベンチマークを提案する。
我々は,GCN,SAGE,GIN,GATの6つのGNNアーキテクチャを,2つの異なるドメインの5つのデータセットで評価した。
論文 参考訳(メタデータ) (2025-05-05T11:14:56Z) - Integrating Structural and Semantic Signals in Text-Attributed Graphs with BiGTex [0.0]
BiGTexは、スタック化されたGraph-Text Fusion Unitを通じてGNNとLLMを密に統合する新しいアーキテクチャである。
BiGTexはノード分類における最先端性能を実現し、リンク予測に効果的に一般化する。
論文 参考訳(メタデータ) (2025-04-16T20:25:11Z) - Advanced Text Analytics -- Graph Neural Network for Fake News Detection in Social Media [0.0]
本稿では,ATA-GNN(Advanced Text Analysis Graph Neural Network)を提案する。
ATA-GNNは、各トピックの典型的な単語を特定するために、革新的なトピックモデリング(クラスタリング)技術を採用している。
広く使われているベンチマークデータセットの大規模な評価は、ATA-GNNが現在のGNNベースのFND法の性能を上回ることを示している。
論文 参考訳(メタデータ) (2025-02-22T09:17:33Z) - Can Graph Neural Networks Learn Language with Extremely Weak Text Supervision? [62.12375949429938]
本稿では,事前学習したグラフニューラルネットワークを下流タスクやデータに適用するためのマルチモーダル・プロンプト学習パラダイムを提案する。
我々の新しいパラダイムは、グラフプロンプトとテキストプロンプトの両方を同時に学習することで、Large Language Models(LLM)と直接同じ空間にグラフを埋め込む。
私たちは、GNNを極めて弱いテキスト管理で見えないクラスに一般化できるCLIPスタイルのゼロショット分類プロトタイプを構築した。
論文 参考訳(メタデータ) (2024-12-11T08:03:35Z) - Software Vulnerability Detection via Deep Learning over Disaggregated
Code Graph Representation [57.92972327649165]
この研究は、コードコーパスから安全でないパターンを自動的に学習するためのディープラーニングアプローチを探求する。
コードには解析を伴うグラフ構造が自然に認められるため,プログラムの意味的文脈と構造的規則性の両方を利用する新しいグラフニューラルネットワーク(GNN)を開発する。
論文 参考訳(メタデータ) (2021-09-07T21:24:36Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。