論文の概要: Imbalanced Graph Classification with Multi-scale Oversampling Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2405.04903v1
- Date: Wed, 8 May 2024 09:16:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-09 18:41:08.873554
- Title: Imbalanced Graph Classification with Multi-scale Oversampling Graph Neural Networks
- Title(参考訳): マルチスケールオーバーサンプリンググラフニューラルネットワークを用いた不均衡グラフ分類
- Authors: Rongrong Ma, Guansong Pang, Ling Chen,
- Abstract要約: 本稿では,表現力のあるマイノリティグラフ表現を学習するマルチスケールオーバーサンプリンググラフニューラルネットワーク(MOSGNN)を提案する。
サブグラフレベル、グラフレベル、ペアワイズグラフ学習タスクを共同で最適化することで、これを実現する。
16のバランスの取れないグラフデータセットの実験では、MOSGNN i)が5つの最先端モデルを大幅に上回っている。
- 参考スコア(独自算出の注目度): 25.12261412297796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One main challenge in imbalanced graph classification is to learn expressive representations of the graphs in under-represented (minority) classes. Existing generic imbalanced learning methods, such as oversampling and imbalanced learning loss functions, can be adopted for enabling graph representation learning models to cope with this challenge. However, these methods often directly operate on the graph representations, ignoring rich discriminative information within the graphs and their interactions. To tackle this issue, we introduce a novel multi-scale oversampling graph neural network (MOSGNN) that learns expressive minority graph representations based on intra- and inter-graph semantics resulting from oversampled graphs at multiple scales - subgraph, graph, and pairwise graphs. It achieves this by jointly optimizing subgraph-level, graph-level, and pairwise-graph learning tasks to learn the discriminative information embedded within and between the minority graphs. Extensive experiments on 16 imbalanced graph datasets show that MOSGNN i) significantly outperforms five state-of-the-art models, and ii) offers a generic framework, in which different advanced imbalanced learning loss functions can be easily plugged in and obtain significantly improved classification performance.
- Abstract(参考訳): 不均衡グラフ分類における大きな課題の1つは、表現不足(マイノリティ)クラスでグラフの表現的表現を学ぶことである。
オーバーサンプリングや非バランス学習損失関数といった既存の非バランス学習手法は、グラフ表現学習モデルがこの課題に対処できるように採用することができる。
しかしながら、これらの手法はグラフ表現を直接操作し、グラフとその相互作用内のリッチな識別情報を無視することが多い。
この問題に対処するために,複数スケールのグラフ(サブグラフ,グラフ,ペアワイズグラフ)から得られるグラフ内およびグラフ間セマンティクスに基づいて,表現力に富んだマイノリティグラフ表現を学習する,新しいマルチスケールオーバーサンプリンググラフニューラルネットワーク(MOSGNN)を導入する。
サブグラフレベル、グラフレベル、ペアワイズグラフの学習タスクを共同で最適化し、マイノリティグラフ内とマイノリティグラフ間の識別情報を学習する。
16個の不均衡グラフデータセットの大規模な実験により、MOSGNNが示される
i)5つの最先端モデルを著しく上回り、
二 異なる先進的不均衡学習損失関数を容易に接続でき、分類性能が著しく向上した総合的枠組みを提供すること。
関連論文リスト
- PAC Learnability under Explanation-Preserving Graph Perturbations [15.83659369727204]
グラフニューラルネットワーク(GNN)はグラフ上で動作し、グラフ構造化データの複雑な関係と依存関係を活用する。
グラフ説明は、その分類ラベルに関して入力グラフの「ほぼ」統計量である部分グラフである。
本研究は、GNNの設計と訓練において、そのような摂動不変性を利用する2つの方法を検討する。
論文 参考訳(メタデータ) (2024-02-07T17:23:15Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Adversarial Graph Contrastive Learning with Information Regularization [51.14695794459399]
コントラスト学習はグラフ表現学習において有効な方法である。
グラフ上のデータ拡張は、はるかに直感的ではなく、高品質のコントラスト的なサンプルを提供するのがずっと難しい。
逆グラフ比較学習(Adversarial Graph Contrastive Learning, ARIEL)を提案する。
さまざまな実世界のデータセット上でのノード分類タスクにおいて、現在のグラフのコントラスト学習方法よりも一貫して優れています。
論文 参考訳(メタデータ) (2022-02-14T05:54:48Z) - Graph Self-supervised Learning with Accurate Discrepancy Learning [64.69095775258164]
離散性に基づく自己監督型LeArning(D-SLA)と呼ばれる原図と摂動グラフの正確な相違を学習することを目的としたフレームワークを提案する。
本稿では,分子特性予測,タンパク質機能予測,リンク予測タスクなど,グラフ関連下流タスクにおける本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-02-07T08:04:59Z) - Cross-view Self-Supervised Learning on Heterogeneous Graph Neural
Network via Bootstrapping [0.0]
不均一グラフニューラルネットワークは、優れた能力を持つ異種グラフの情報を表現することができる。
本稿では,多数のペアを生成することなく優れた表現を生成できるシステムを提案する。
提案モデルは,様々な実世界のデータセットにおいて,他の手法よりも最先端の性能を示した。
論文 参考訳(メタデータ) (2022-01-10T13:36:05Z) - Multi-Level Graph Contrastive Learning [38.022118893733804]
本稿では,グラフの空間ビューを対比することで,グラフデータの堅牢な表現を学習するためのマルチレベルグラフコントラスト学習(MLGCL)フレームワークを提案する。
元のグラフは1次近似構造であり、不確実性や誤りを含むが、符号化機能によって生成された$k$NNグラフは高次近接性を保持する。
MLGCLは、7つのデータセット上の既存の最先端グラフ表現学習法と比較して有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-07-06T14:24:43Z) - Model-Agnostic Graph Regularization for Few-Shot Learning [60.64531995451357]
グラフ組み込み数ショット学習に関する包括的な研究を紹介します。
本稿では,ラベル間のグラフ情報の組み込みによる影響をより深く理解できるグラフ正規化手法を提案する。
提案手法は,Mini-ImageNetで最大2%,ImageNet-FSで6.7%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-02-14T05:28:13Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z) - Multilevel Graph Matching Networks for Deep Graph Similarity Learning [79.3213351477689]
グラフ構造オブジェクト間のグラフ類似性を計算するためのマルチレベルグラフマッチングネットワーク(MGMN)フレームワークを提案する。
標準ベンチマークデータセットの欠如を補うため、グラフグラフ分類とグラフグラフ回帰タスクの両方のためのデータセットセットを作成し、収集した。
総合的な実験により、MGMNはグラフグラフ分類とグラフグラフ回帰タスクの両方において、最先端のベースラインモデルより一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-07-08T19:48:19Z) - Graph Pooling with Node Proximity for Hierarchical Representation
Learning [80.62181998314547]
本稿では,ノード近接を利用したグラフプーリング手法を提案し,そのマルチホップトポロジを用いたグラフデータの階層的表現学習を改善する。
その結果,提案したグラフプーリング戦略は,公開グラフ分類ベンチマークデータセットの集合において,最先端のパフォーマンスを達成できることが示唆された。
論文 参考訳(メタデータ) (2020-06-19T13:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。