論文の概要: ANOMIX: A Simple yet Effective Hard Negative Generation via Mixing for Graph Anomaly Detection
- arxiv url: http://arxiv.org/abs/2410.20310v1
- Date: Sun, 27 Oct 2024 02:35:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:16:43.158872
- Title: ANOMIX: A Simple yet Effective Hard Negative Generation via Mixing for Graph Anomaly Detection
- Title(参考訳): ANOMIX:グラフ異常検出のための混合による単純で効果的なハードネガティブ生成
- Authors: Hwan Kim, Junghoon Kim, Sungsu Lim,
- Abstract要約: グラフコントラスト学習(GCL)は一般的に多数のサンプルを必要とする。
サンプル数を減らす効果的な方法の1つは、強陰性(例えば、Mixup)を使用することである。
本稿では,新しいグラフ混合手法であるANOmix-MとGADのためのマルチレベルコントラストからなるフレームワークであるANOmixを提案する。
- 参考スコア(独自算出の注目度): 6.537257686406911
- License:
- Abstract: Graph contrastive learning (GCL) generally requires a large number of samples. The one of the effective ways to reduce the number of samples is using hard negatives (e.g., Mixup). Designing mixing-based approach for GAD can be difficult due to imbalanced data or limited number of anomalies. We propose ANOMIX, a framework that consists of a novel graph mixing approach, ANOMIX-M, and multi-level contrasts for GAD. ANOMIX-M can effectively mix abnormality and normality from input graph to generate hard negatives, which are important for efficient GCL. ANOMIX is (a) A first mixing approach: firstly attempting graph mixing to generate hard negatives for GAD task and node- and subgraph-level contrasts to distinguish underlying anomalies. (b) Accurate: winning the highest AUC, up to 5.49% higher and 1.76% faster. (c) Effective: reducing the number of samples nearly 80% in GCL. Code is available at https://github.com/missinghwan/ANOMIX.
- Abstract(参考訳): グラフコントラスト学習(GCL)は一般的に多数のサンプルを必要とする。
サンプル数を減らす効果的な方法の1つは、ハードネガティブ(例:Mixup)を使うことである。
不均衡なデータや限られた数の異常のため、GADの混合ベースのアプローチの設計は困難である。
本稿では,新しいグラフ混合手法であるANOMIX-MとGADのマルチレベルコントラストからなるフレームワークであるANOMIXを提案する。
ANOMIX-Mは、入力グラフから異常と正規性を効果的に混合し、効率的なGCLにとって重要なハードネガティブを生成する。
ANOMIXは
(a) GADタスクとノードレベルおよびサブグラフレベルのコントラストに対して、まずグラフミキシングを試み、基礎となる異常を区別する。
(b)AUCの最高値が5.49%上昇し、1.76%が速い。
(c)有効: GCLの80%近くを減少させる。
コードはhttps://github.com/missinghwan/ANOMIXで入手できる。
関連論文リスト
- GeoMix: Towards Geometry-Aware Data Augmentation [76.09914619612812]
Mixupは画像分類におけるラベル付き限られたデータによる課題の緩和にかなりの成功を収めている。
In-place graph editing を利用した簡易かつ解釈可能な混合手法 Geometric Mixup (GeoMix) を提案する。
論文 参考訳(メタデータ) (2024-07-15T12:58:04Z) - Graph Sparsification via Mixture of Graphs [67.40204130771967]
そこで我々はMixture-of-Graphs (MoG)を導入し、各ノードに対して動的に調整されたプルーニングソリューションを選択する。
MoGには複数のスパシファイアの専門家が組み込まれており、それぞれが独自のスパーシリティレベルとプルーニング基準によって特徴付けられ、各ノードに対して適切な専門家を選択する。
5つのGNNを備えた4つの大規模OGBデータセットと2つのスーパーピクセルデータセットの実験により、MoGはより高い空間レベルのサブグラフを識別することを示した。
論文 参考訳(メタデータ) (2024-05-23T07:40:21Z) - IntraMix: Intra-Class Mixup Generation for Accurate Labels and Neighbors [15.281223268780694]
グラフニューラルネットワーク(GNN)は、様々なタスクにおいて優れたパフォーマンスを示している。
グラフの一般的な課題は、ノードの正確な(高品質な)ラベルと限られた隣り合うラベルである。
既存のグラフ拡張手法は通常、これらの課題の1つにのみ対処する。
両課題を同時に解決するために,IntraMixと呼ばれるエレガントな手法を提案する。
論文 参考訳(メタデータ) (2024-05-02T02:38:32Z) - Fast Semisupervised Unmixing Using Nonconvex Optimization [80.11512905623417]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - Gaussian Mixture Solvers for Diffusion Models [84.83349474361204]
本稿では,拡散モデルのためのGMSと呼ばれる,SDEに基づく新しい解法について紹介する。
画像生成およびストロークベース合成におけるサンプル品質の観点から,SDEに基づく多くの解法よりも優れる。
論文 参考訳(メタデータ) (2023-11-02T02:05:38Z) - DropMix: Better Graph Contrastive Learning with Harder Negative Samples [6.242575753642188]
グラフコントラスト学習(GCL)における強陰性サンプルの合成にMixupを導入している。
より硬い負のサンプルを合成する新しいDropMix法を提案する。
論文 参考訳(メタデータ) (2023-10-15T07:45:30Z) - Normality Learning-based Graph Anomaly Detection via Multi-Scale
Contrastive Learning [61.57383634677747]
グラフ異常検出(GAD)は、機械学習やデータマイニングにおいて注目を集めている。
本稿では,マルチスケールコントラスト学習ネットワーク(NLGAD,略語)による正規性学習に基づくGADフレームワークを提案する。
特に,提案アルゴリズムは,最先端手法と比較して検出性能(最大5.89%のAUCゲイン)を向上させる。
論文 参考訳(メタデータ) (2023-09-12T08:06:04Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - MixKG: Mixing for harder negative samples in knowledge graph [33.4379457065033]
知識グラフ埋め込み(KGE)は、多くの実世界のアプリケーションのための低次元ベクトルへの実体と関係を表現することを目的としている。
そこで本研究では,知識グラフのより厳しい負のサンプルを生成するために,MixKGという安価で効果的な手法を提案する。
2つの公開データセットと4つの古典的KGE手法の実験は、MixKGが以前の負サンプリングアルゴリズムよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-02-19T13:31:06Z) - An Adaptive EM Accelerator for Unsupervised Learning of Gaussian Mixture
Models [0.7340845393655052]
教師なし学習のための適応予測最大化(EM)アルゴリズムのためのAnderson Accelerationスキームを提案する。
提案アルゴリズムは、最適混合成分数を自律的に決定することができ、非加速バージョンよりもはるかに高速に最適解に収束する。
論文 参考訳(メタデータ) (2020-09-26T22:55:44Z) - Clustering of non-Gaussian data by variational Bayes for normal inverse
Gaussian mixture models [0.0]
実際の状況では、重い尾を持つ非ガウス的データや非対称なデータが多く存在する。
NIG混合モデルでは、期待最大化法と変分ベイズアルゴリズムの両方が提案されている。
NIG混合のための別のVBアルゴリズムを提案し、欠点を改善する。
また,クラスタ数決定の難しさを克服するため,ディリクレプロセス混合モデルの拡張も提案する。
論文 参考訳(メタデータ) (2020-09-13T14:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。