論文の概要: Towards Anomaly-Aware Pre-Training and Fine-Tuning for Graph Anomaly Detection
- arxiv url: http://arxiv.org/abs/2504.14250v2
- Date: Fri, 16 May 2025 11:28:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:12.873034
- Title: Towards Anomaly-Aware Pre-Training and Fine-Tuning for Graph Anomaly Detection
- Title(参考訳): グラフ異常検出のための異常認識事前学習と微調整に向けて
- Authors: Yunhui Liu, Jiashun Cheng, Yiqing Lin, Qizhuo Xie, Jia Li, Fugee Tsung, Hongzhi Yin, Tao Zheng, Jianhua Zhao, Tieke He,
- Abstract要約: グラフ異常検出(GAD)は近年注目度が高まりつつあるが、2つの重要な要因があるため、依然として困難である。
Anomaly-Aware Pre-Training and Fine-Tuning (APF)は、GADの課題を軽減するためのフレームワークである。
10のベンチマークデータセットに関する総合的な実験は、最先端のベースラインと比較してAPFの優れたパフォーマンスを検証する。
- 参考スコア(独自算出の注目度): 59.042018542376596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph anomaly detection (GAD) has garnered increasing attention in recent years, yet remains challenging due to two key factors: (1) label scarcity stemming from the high cost of annotations and (2) homophily disparity at node and class levels. In this paper, we introduce Anomaly-Aware Pre-Training and Fine-Tuning (APF), a targeted and effective framework to mitigate the above challenges in GAD. In the pre-training stage, APF incorporates node-specific subgraphs selected via the Rayleigh Quotient, a label-free anomaly metric, into the learning objective to enhance anomaly awareness. It further introduces two learnable spectral polynomial filters to jointly learn dual representations that capture both general semantics and subtle anomaly cues. During fine-tuning, a gated fusion mechanism adaptively integrates pre-trained representations across nodes and dimensions, while an anomaly-aware regularization loss encourages abnormal nodes to preserve more anomaly-relevant information. Furthermore, we theoretically show that APF tends to achieve linear separability under mild conditions. Comprehensive experiments on 10 benchmark datasets validate the superior performance of APF in comparison to state-of-the-art baselines.
- Abstract(参考訳): グラフ異常検出(GAD)は近年注目度が高くなっているが,1) アノテーションの高コストに起因するラベル不足,2) ノードとクラスレベルでの相違,という2つの重要な要因により,依然として困難である。
本稿では,Anomaly-Aware Pre-Training and Fine-Tuning (APF)を紹介する。
事前学習段階では、APFはラベルのない異常指標であるRayleigh Quotientを介して選択されたノード固有のサブグラフを学習目的に組み込んで、異常認知を高める。
さらに、2つの学習可能なスペクトル多項式フィルタを導入し、一般的な意味論と微妙な異常な手がかりの両方を捉える二重表現を共同で学習する。
微調整中、ゲート融合機構はノードと次元をまたいだ事前訓練された表現を適応的に統合するが、異常認識正規化損失は異常ノードにより多くの異常関連情報を保存させる。
さらに、理論上、APFは穏やかな条件下で線形分離性を達成する傾向にあることを示した。
10のベンチマークデータセットに関する総合的な実験は、最先端のベースラインと比較してAPFの優れたパフォーマンスを検証する。
関連論文リスト
- Dual-Frequency Filtering Self-aware Graph Neural Networks for Homophilic and Heterophilic Graphs [60.82508765185161]
我々は、Dual-Frequency Filtering Self-Aware Graph Neural Networks (DFGNN)を提案する。
DFGNNは低域通過フィルタと高域通過フィルタを統合し、滑らかで詳細な位相的特徴を抽出する。
フィルター比を動的に調整し、ホモフィルグラフとヘテロフィルグラフの両方に対応する。
論文 参考訳(メタデータ) (2024-11-18T04:57:05Z) - Partitioning Message Passing for Graph Fraud Detection [57.928658584067556]
グラフフラッド検出(GFD)タスクにグラフニューラルネットワーク(GNN)を適用する場合、ラベルの不均衡とホモフィリー・ヘテロフィリー混合が直面する根本的な問題である。
既存のGNNベースのGFDモデルは、GNNのホモフィリーへの帰納バイアスに対応するためにグラフ構造を拡張するように設計されている。
我々の研究では、GFDにGNNを適用する鍵は除外するのではなく、異なるラベルを持つ隣人を区別することにあると論じている。
論文 参考訳(メタデータ) (2024-11-16T11:30:53Z) - Node-wise Filtering in Graph Neural Networks: A Mixture of Experts Approach [58.8524608686851]
グラフニューラルネットワーク(GNN)は、多様なグラフ構造パターンをまたいだノード分類タスクに非常に効果的であることが証明されている。
伝統的に、GNNは均一なグローバルフィルタ(通常、ホモフィルグラフのローパスフィルタとヘテロフィルグラフのハイパスフィルタ)を用いる。
我々は,異なるノードに対する適切なフィルタを適応的に選択するために,専門家の混在を利用した新しいGNNフレームワークNode-MoEを紹介する。
論文 参考訳(メタデータ) (2024-06-05T17:12:38Z) - Alleviating Structural Distribution Shift in Graph Anomaly Detection [70.1022676681496]
グラフ異常検出(GAD)は二項分類の問題である。
ガロン神経ネットワーク(GNN)は、同胞性隣人からの正常の分類に有用である。
ヘテロ親水性隣人の影響を緩和し、不変にするための枠組みを提案する。
論文 参考訳(メタデータ) (2024-01-25T13:07:34Z) - GPatcher: A Simple and Adaptive MLP Model for Alleviating Graph
Heterophily [15.93465948768545]
グラフニューラルネットワーク(GNN)フィルタにおけるグラフヘテロフィリーの影響を解明する。
我々は,パッチ・ミクサーアーキテクチャを利用したGPatcherというシンプルで強力なGNNを提案する。
本モデルでは, ノード分類において, 人気ホモフィリーGNNや最先端ヘテロフィリーGNNと比較して, 優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-25T20:57:35Z) - Heterophily-Aware Graph Attention Network [42.640057865981156]
グラフニューラルネットワーク(GNN)はグラフ表現学習において顕著な成功を収めている。
既存のヘテロフィル性GNNは、各エッジのヘテロフィリのモデリングを無視する傾向にあり、これはヘテロフィリ問題に取り組む上でも不可欠である。
本稿では,局所分布を基礎となるヘテロフィリーとして完全に探索し,活用することで,新たなヘテロフィア対応グラフ注意ネットワーク(HA-GAT)を提案する。
論文 参考訳(メタデータ) (2023-02-07T03:21:55Z) - Node-oriented Spectral Filtering for Graph Neural Networks [38.0315325181726]
グラフニューラルネットワーク(GNN)は、ホモ親和性グラフデータに顕著な性能を示す。
一般に、グローバルな視点からグラフ上の普遍的なスペクトルフィルタを学習することは、局所的なパターンの変化に適応する上で非常に困難である。
グラフニューラルネットワーク(NFGNN)のためのノード指向スペクトルフィルタリングを提案する。
論文 参考訳(メタデータ) (2022-12-07T14:15:28Z) - Beyond Low-Pass Filters: Adaptive Feature Propagation on Graphs [6.018995094882323]
グラフニューラルネットワーク(GNN)は、グラフ上の予測タスクのために広く研究されている。
ほとんどのGNNは、局所的ホモフィリー、すなわち地域住民の強い類似性を仮定している。
基本となるホモフィリーによって制限されることなく、任意のグラフを扱うことができる柔軟なGNNモデルを提案する。
論文 参考訳(メタデータ) (2021-03-26T00:35:36Z) - Bayesian Graph Neural Networks with Adaptive Connection Sampling [62.51689735630133]
グラフニューラルネットワーク(GNN)における適応接続サンプリングのための統一的なフレームワークを提案する。
提案フレームワークは,深部GNNの過度なスムース化や過度に適合する傾向を緩和するだけでなく,グラフ解析タスクにおけるGNNによる不確実性の学習を可能にする。
論文 参考訳(メタデータ) (2020-06-07T07:06:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。