論文の概要: Data Augmentation for Supervised Graph Outlier Detection with Latent Diffusion Models
- arxiv url: http://arxiv.org/abs/2312.17679v2
- Date: Wed, 11 Sep 2024 21:39:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-13 22:12:50.470167
- Title: Data Augmentation for Supervised Graph Outlier Detection with Latent Diffusion Models
- Title(参考訳): 遅延拡散モデルを用いた教師付きグラフ外乱検出のためのデータ拡張
- Authors: Kay Liu, Hengrui Zhang, Ziqing Hu, Fangxin Wang, Philip S. Yu,
- Abstract要約: 本稿では,遅延拡散モデルを用いた教師付きグラフ外乱検出において,クラス不均衡を緩和する新しいデータ拡張であるGODMを紹介する。
提案手法は,(1)Variantioanlがグラフデータ内に存在する異種情報を統一潜在空間にマッピングし,(2)グラフ生成器が潜在空間から実際の外れ値に統計的に類似したグラフデータを合成し,(3)潜時拡散モデルが反復分解により実際の有機データの潜時空間分布を学習する,という3つの重要な要素から構成される。
- 参考スコア(独自算出の注目度): 39.33024157496401
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph outlier detection is a prominent task of research and application in the realm of graph neural networks. It identifies the outlier nodes that exhibit deviation from the majority in the graph. One of the fundamental challenges confronting supervised graph outlier detection algorithms is the prevalent issue of class imbalance, where the scarcity of outlier instances compared to normal instances often results in suboptimal performance. Conventional methods mitigate the imbalance by reweighting instances in the estimation of the loss function, assigning higher weights to outliers and lower weights to inliers. Nonetheless, these strategies are prone to overfitting and underfitting, respectively. Recently, generative models, especially diffusion models, have demonstrated their efficacy in synthesizing high-fidelity images. Despite their extraordinary generation quality, their potential in data augmentation for supervised graph outlier detection remains largely underexplored. To bridge this gap, we introduce GODM, a novel data augmentation for mitigating class imbalance in supervised Graph Outlier detection with latent Diffusion Models. Specifically, our proposed method consists of three key components: (1) Variantioanl Encoder maps the heterogeneous information inherent within the graph data into a unified latent space. (2) Graph Generator synthesizes graph data that are statistically similar to real outliers from latent space, and (3) Latent Diffusion Model learns the latent space distribution of real organic data by iterative denoising. Extensive experiments conducted on multiple datasets substantiate the effectiveness and efficiency of GODM. The case study further demonstrated the generation quality of our synthetic data. To foster accessibility and reproducibility, we encapsulate GODM into a plug-and-play package and release it at the Python Package Index (PyPI).
- Abstract(参考訳): グラフ外乱検出は、グラフニューラルネットワークの領域における研究と応用の顕著な課題である。
グラフの多数から逸脱を示す外れ値ノードを識別する。
教師付きグラフの外れ値検出アルゴリズムに直面する根本的な課題の1つは、クラス不均衡の問題である。
従来の方法では、損失関数の推定におけるインスタンスの再重み付けによる不均衡を緩和し、より高い重み付けを外れ値に、低い重み付けを下降値に割り当てる。
それでも、これらの戦略は、それぞれ過度に適合する傾向にある。
近年, 生成モデル, 特に拡散モデルが高忠実度画像の合成に有効であることが証明されている。
異常な生成品質にもかかわらず、教師付きグラフ外乱検出のためのデータ拡張の可能性は、大半が未発見のままである。
このギャップを埋めるため,遅延拡散モデルを用いた教師付きグラフアウトリア検出において,クラス不均衡を緩和する新しいデータ拡張であるGODMを導入する。
提案手法は,(1) Variantioanl Encoderは,グラフデータ内に存在する異種情報を統一潜在空間にマッピングする。
2)グラフ生成器は,潜伏空間の実際の外れ値と統計的に類似したグラフデータを合成し,(3)潜伏拡散モデルにより反復分解により実際の有機データの潜伏空間分布を学習する。
複数のデータセットに対して行われた大規模な実験は、GODMの有効性と効率を裏付けるものである。
ケーススタディは、我々の合成データの生成品質をさらに実証した。
アクセシビリティと再現性を向上するため、GODMをプラグイン・アンド・プレイパッケージにカプセル化し、Python Package Index (PyPI)でリリースする。
関連論文リスト
- Imbalanced Graph-Level Anomaly Detection via Counterfactual Augmentation and Feature Learning [1.3756846638796]
本稿では,非バランスなGLAD手法を提案する。
我々は、このモデルを脳疾患データセットに適用し、我々の研究の能力を証明することができる。
論文 参考訳(メタデータ) (2024-07-13T13:40:06Z) - Advancing Graph Generation through Beta Diffusion [49.49740940068255]
グラフベータ拡散(英: Graph Beta Diffusion、GBD)は、様々なグラフ構造を捉えるのに有効な拡散ベースの生成モデルである。
我々は,臨界グラフ構造の生成を安定化させることにより,生成したグラフの現実性を高める変調手法を開発した。
論文 参考訳(メタデータ) (2024-06-13T17:42:57Z) - Multitask Active Learning for Graph Anomaly Detection [48.690169078479116]
MultItask acTIve Graph Anomaly Detection framework,すなわちMITIGATEを提案する。
ノード分類タスクを結合することにより、MITIGATEは既知の異常を伴わずに配布外ノードを検出する能力を得る。
4つのデータセットに関する実証的研究は、MITIGATEが異常検出のための最先端の手法を著しく上回っていることを示している。
論文 参考訳(メタデータ) (2024-01-24T03:43:45Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - DAGAD: Data Augmentation for Graph Anomaly Detection [57.92471847260541]
本稿では、属性グラフのための新しいデータ拡張ベースのグラフ異常検出(DAGAD)フレームワークを考案する。
3つのデータセットに関する一連の実験は、DAGADが様々な主に使用されるメトリクスに関して、10の最先端のベースライン検出器より優れていることを証明している。
論文 参考訳(メタデータ) (2022-10-18T11:28:21Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - Issues with Propagation Based Models for Graph-Level Outlier Detection [16.980621769406916]
Graph-Level Outlier Detection (GLOD)は、グラフデータベース内の異常なグラフを識別するタスクである。
本稿では, GLODに伝搬モデルを適用し, 基本的かつ興味深い問題に対処する。
モデルのROC-AUC性能は、どのクラスがダウンサンプリングされるかによって大きく変化します。
論文 参考訳(メタデータ) (2020-12-23T19:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。