論文の概要: SmoothGNN: Smoothing-based GNN for Unsupervised Node Anomaly Detection
- arxiv url: http://arxiv.org/abs/2405.17525v1
- Date: Mon, 27 May 2024 14:23:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 23:40:54.888027
- Title: SmoothGNN: Smoothing-based GNN for Unsupervised Node Anomaly Detection
- Title(参考訳): SmoothGNN: 教師なしノード異常検出のためのSmoothing-based GNN
- Authors: Xiangyu Dong, Xingyi Zhang, Yanni Sun, Lei Chen, Mingxuan Yuan, Sibo Wang,
- Abstract要約: このスムーズな問題は、グラフ学習の分野で大きな課題となるノード表現を区別できないものにする。
異常なノードや通常のノードはスムースなプロセスで異なるパターンを示しており、ノード検出タスクの強化に利用することができる。
本稿では,Smoothing-aware Spectral Graph Neural Networkを導入し,グラフのスペクトル空間と平滑化プロセスとの接続を確立する。
- 参考スコア(独自算出の注目度): 14.1365182085686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The smoothing issue leads to indistinguishable node representations, which poses a significant challenge in the field of graph learning. However, this issue also presents an opportunity to reveal underlying properties behind different types of nodes, which have been overlooked in previous studies. Through empirical and theoretical analysis of real-world node anomaly detection (NAD) datasets, we observe that anomalous and normal nodes show different patterns in the smoothing process, which can be leveraged to enhance NAD tasks. Motivated by these findings, in this paper, we propose a novel unsupervised NAD framework. Specifically, according to our theoretical analysis, we design a Smoothing Learning Component. Subsequently, we introduce a Smoothing-aware Spectral Graph Neural Network, which establishes the connection between the spectral space of graphs and the smoothing process. Additionally, we demonstrate that the Dirichlet Energy, which reflects the smoothness of a graph, can serve as coefficients for node representations across different dimensions of the spectral space. Building upon these observations and analyses, we devise a novel anomaly measure for the NAD task. Extensive experiments on 9 real-world datasets show that SmoothGNN outperforms the best rival by an average of 14.66% in AUC and 7.28% in Precision, with 75x running time speed-up, which validates the effectiveness and efficiency of our framework.
- Abstract(参考訳): このスムーズな問題は、グラフ学習の分野で重要な課題となるノード表現を区別できないものにする。
しかし、この問題は、以前の研究で見過ごされてきた、異なるタイプのノードの背後にある基本的な特性を明らかにする機会も提示している。
実世界のノード異常検出(NAD)データセットの実証的および理論的解析により、異常ノードと正常ノードが平滑化過程において異なるパターンを示すことが観察され、NADタスクの強化に活用できる。
本報告では,これらの知見に触発され,新しい非教師付きNADフレームワークを提案する。
具体的には,Smoothing Learning Componentを設計する。
次に,Smoothing-aware Spectral Graph Neural Networkを導入し,グラフのスペクトル空間と平滑化プロセスとの接続を確立する。
さらに、グラフの滑らかさを反映したディリクレエネルギーが、スペクトル空間の異なる次元にわたるノード表現の係数として機能することを示した。
これらの観測と分析に基づいて、NADタスクのための新しい異常測度を考案する。
9つの実世界のデータセットに対する大規模な実験によると、SmoothGNNはAUCで平均14.66%、精度で7.28%、実行時のスピードアップで最高のライバルを上回っている。
関連論文リスト
- High-Pass Graph Convolutional Network for Enhanced Anomaly Detection: A Novel Approach [0.0]
本稿では,グラフ異常検出(GAD)のためのハイパスグラフ畳み込みネットワーク(HP-GCN)を提案する。
提案したHP-GCNは、異常が正常ノードネットワーク内の高周波信号を増加させる傾向があるため、異常を検出するために高周波成分を利用する。
このモデルはYelpChi、Amazon、T-Finance、T-Socialデータセットで評価され、検証される。
論文 参考訳(メタデータ) (2024-11-04T05:38:07Z) - Spiking Graph Neural Network on Riemannian Manifolds [51.15400848660023]
グラフニューラルネットワーク(GNN)は、グラフの学習において支配的なソリューションとなっている。
既存のスパイク GNN はユークリッド空間のグラフを考慮し、構造幾何学を無視している。
マニフォールド値スパイキングGNN(MSG)を提案する。
MSGは従来のGNNよりも優れた性能とエネルギー効率を実現している。
論文 参考訳(メタデータ) (2024-10-23T15:09:02Z) - Understanding Virtual Nodes: Oversmoothing, Oversquashing, and Node Heterogeneity [4.59357989139429]
仮想ノード(VN)によるMPNNの拡張は、さまざまなベンチマークのパフォーマンス向上に寄与している。
VNは、通常、表現力を維持するための非平滑化アプローチの複製を避ける。
グラフ構造に基づいてノードに対して異なる感度を持つ計算複雑性を持つVNの変種を提案する。
論文 参考訳(メタデータ) (2024-05-22T10:51:12Z) - Robust Node Representation Learning via Graph Variational Diffusion
Networks [7.335425547621226]
近年,グラフ構造における摂動により,GNNに基づくノード表現学習が著しく劣化する可能性が示唆されている。
摂動の存在下で頑健なノード表現を学習するために、GNNを保護するための様々な研究が提案されている。
本稿では,ガウス雑音を効果的に制御し,摂動グラフ上のロバスト性を保護する新しいノードエンコーダであるグラフ変分拡散ネットワーク(GVDN)を提案する。
論文 参考訳(メタデータ) (2023-12-18T03:18:53Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - A Dimension-Augmented Physics-Informed Neural Network (DaPINN) with High
Level Accuracy and Efficiency [0.20391237204597357]
物理インフォームドニューラルネットワーク(PINN)は様々な分野に広く応用されている。
本稿では,新しい次元拡張物理インフォームドニューラルネットワーク(DaPINN)を提案する。
DaPINNは同時に、PINNの精度と効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-10-19T15:54:37Z) - Momentum Diminishes the Effect of Spectral Bias in Physics-Informed
Neural Networks [72.09574528342732]
物理インフォームドニューラルネットワーク(PINN)アルゴリズムは、偏微分方程式(PDE)を含む幅広い問題を解く上で有望な結果を示している。
彼らはしばしば、スペクトルバイアスと呼ばれる現象のために、ターゲット関数が高周波の特徴を含むとき、望ましい解に収束しない。
本研究は, 運動量による勾配降下下で進化するPINNのトレーニングダイナミクスを, NTK(Neural Tangent kernel)を用いて研究するものである。
論文 参考訳(メタデータ) (2022-06-29T19:03:10Z) - Edge Graph Neural Networks for Massive MIMO Detection [15.970981766599035]
無線通信システムにおいて、MIMO(Massive Multiple-Input Multiple-Out)検出は重要な問題である。
従来のBreief Propagation(BP)検出器はループグラフでは性能が良くないが、最近のグラフニューラルネットワーク(GNN)ベースの手法はBPの欠点を克服し、優れた性能を実現することができる。
論文 参考訳(メタデータ) (2022-05-22T08:01:47Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Understanding and Resolving Performance Degradation in Graph
Convolutional Networks [105.14867349802898]
グラフ畳み込みネットワーク(GCN)は複数のレイヤを積み重ね、グラフ構造化データ上でノード表現を学習するためのPROPとTRANを実行する。
GCNはモデルが深くなるとパフォーマンスが低下する傾向がある。
本稿では,TRANやPROPのみを積み重ねることによるGCNの性能劣化について実験的に検討する。
論文 参考訳(メタデータ) (2020-06-12T12:12:12Z) - Stochastic Graph Neural Networks [123.39024384275054]
グラフニューラルネットワーク(GNN)は、分散エージェント調整、制御、計画に応用したグラフデータの非線形表現をモデル化する。
現在のGNNアーキテクチャは理想的なシナリオを前提として,環境やヒューマンファクタ,あるいは外部攻撃によるリンク変動を無視している。
これらの状況において、GNNは、トポロジカルなランダム性を考慮していない場合、その分散タスクに対処することができない。
論文 参考訳(メタデータ) (2020-06-04T08:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。