論文の概要: Graph Pre-Training Models Are Strong Anomaly Detectors
- arxiv url: http://arxiv.org/abs/2410.18487v1
- Date: Thu, 24 Oct 2024 07:22:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:49:18.282268
- Title: Graph Pre-Training Models Are Strong Anomaly Detectors
- Title(参考訳): グラフ事前学習モデルは強力な異常検出器である
- Authors: Jiashun Cheng, Zinan Zheng, Yang Liu, Jianheng Tang, Hongwei Wang, Yu Rong, Jia Li, Fugee Tsung,
- Abstract要約: グラフ事前学習モデルは強力なグラフ異常検出器であることを示す。
具体的には、事前トレーニングが非常に競争力があり、最先端のエンドツーエンドトレーニングモデルよりも優れています。
グラフレベルの異常検出における事前学習の可能性について検討する。
- 参考スコア(独自算出の注目度): 44.31653727174684
- License:
- Abstract: Graph Anomaly Detection (GAD) is a challenging and practical research topic where Graph Neural Networks (GNNs) have recently shown promising results. The effectiveness of existing GNNs in GAD has been mainly attributed to the simultaneous learning of node representations and the classifier in an end-to-end manner. Meanwhile, graph pre-training, the two-stage learning paradigm such as DGI and GraphMAE, has shown potential in leveraging unlabeled graph data to enhance downstream tasks, yet its impact on GAD remains under-explored. In this work, we show that graph pre-training models are strong graph anomaly detectors. Specifically, we demonstrate that pre-training is highly competitive, markedly outperforming the state-of-the-art end-to-end training models when faced with limited supervision. To understand this phenomenon, we further uncover pre-training enhances the detection of distant, under-represented, unlabeled anomalies that go beyond 2-hop neighborhoods of known anomalies, shedding light on its superior performance against end-to-end models. Moreover, we extend our examination to the potential of pre-training in graph-level anomaly detection. We envision this work to stimulate a re-evaluation of pre-training's role in GAD and offer valuable insights for future research.
- Abstract(参考訳): グラフ異常検出(GAD)は、グラフニューラルネットワーク(GNN)が最近、有望な結果を示した、挑戦的で実践的な研究トピックである。
GADにおける既存のGNNの有効性は主に、ノード表現と分類器をエンドツーエンドで同時学習することによるものである。
一方、DGIやGraphMAEのような2段階の学習パラダイムであるグラフ事前学習は、下流タスクを強化するためにラベルのないグラフデータを活用する可能性を示している。
本研究では,グラフ事前学習モデルが強いグラフ異常検出器であることを示す。
具体的には、事前トレーニングが非常に競争力があり、限られた監督に直面した場合、最先端のエンドツーエンドトレーニングモデルよりも優れていることを実証する。
この現象を理解するために、我々は、事前学習により、既知の異常の2ホップ地区を超えて、遠方、下方、ラベルのない異常の検出が促進され、エンド・ツー・エンド・エンド・モデルに対する優れた性能に光を当てる。
さらに,グラフレベルの異常検出における事前学習の可能性についても検討した。
本研究は,GADにおける事前訓練の役割の再評価を刺激し,今後の研究に価値ある洞察をもたらすことを期待する。
関連論文リスト
- Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - Breaking the Entanglement of Homophily and Heterophily in
Semi-supervised Node Classification [25.831508778029097]
統計的観点から,ノードプロファイルとトポロジの関係を定量化するAMUDを提案する。
また、AMUDのための新しい有向グラフ学習パラダイムとしてADPAを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:54:11Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - Graph Anomaly Detection with Unsupervised GNNs [19.772490600670363]
グラフニューラルネットワーク(GNN)に基づくエンドツーエンドのグラフレベルの異常検出モデルであるGLAMを設計する。
また,これまでに検討されていない分布異常の検出を目的とした,MDDプールと呼ばれるグラフレベルの埋め込みのための新しいプール方式を提案する。
論文 参考訳(メタデータ) (2022-10-18T01:59:58Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Robust Causal Graph Representation Learning against Confounding Effects [21.380907101361643]
本稿では,ロバスト因果グラフ表現学習(RCGRL)を提案する。
RCGRLは、無条件のモーメント制約の下でインストゥルメンタル変数を生成するアクティブなアプローチを導入し、グラフ表現学習モデルにより、共同設立者を排除している。
論文 参考訳(メタデータ) (2022-08-18T01:31:25Z) - An Empirical Study of Retrieval-enhanced Graph Neural Networks [48.99347386689936]
グラフニューラルネットワーク(GNN)は、グラフ表現学習に有効なツールである。
本稿では,グラフニューラルネットワークモデルの選択に非依存な GraphRETRIEVAL という検索強化方式を提案する。
我々は13のデータセットに対して包括的な実験を行い、GRAPHRETRIEVALが既存のGNNよりも大幅に改善されていることを観察した。
論文 参考訳(メタデータ) (2022-06-01T09:59:09Z) - Iterative Graph Self-Distillation [161.04351580382078]
我々は、IGSD(Iterative Graph Self-Distillation)と呼ばれる新しい教師なしグラフ学習パラダイムを提案する。
IGSDは、グラフ拡張による教師/学生の蒸留を反復的に行う。
我々は,教師なしと半教師なしの両方の設定において,さまざまなグラフデータセットに対して,有意かつ一貫したパフォーマンス向上を実現していることを示す。
論文 参考訳(メタデータ) (2020-10-23T18:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。