論文の概要: GraphMixup: Improving Class-Imbalanced Node Classification on Graphs by
Self-supervised Context Prediction
- arxiv url: http://arxiv.org/abs/2106.11133v1
- Date: Mon, 21 Jun 2021 14:12:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:53:57.606357
- Title: GraphMixup: Improving Class-Imbalanced Node Classification on Graphs by
Self-supervised Context Prediction
- Title(参考訳): GraphMixup: 自己教師型コンテキスト予測によるグラフ上のクラス不均衡ノード分類の改善
- Authors: Lirong Wu, Haitao Lin, Zhangyang Gao, Cheng Tan, Stan.Z.Li
- Abstract要約: 本稿では,グラフ上のクラス不均衡ノード分類を改善するための新しい混合フレームワークであるGraphMixupを提案する。
我々は,これらのマイノリティクラスに対する混合によって生成されるサンプル数を適応的に決定するEmphReinforcement Mixupメカニズムを開発した。
3つの実世界のデータセットの実験により、GraphMixupはクラス不均衡なノード分類タスクに対して真に励まされる結果が得られることが示された。
- 参考スコア(独自算出の注目度): 25.679620842010422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed great success in handling node classification
tasks with Graph Neural Networks (GNNs). However, most existing GNNs are based
on the assumption that node samples for different classes are balanced, while
for many real-world graphs, there exists the problem of class imbalance, i.e.,
some classes may have much fewer samples than others. In this case, directly
training a GNN classifier with raw data would under-represent samples from
those minority classes and result in sub-optimal performance. This paper
presents GraphMixup, a novel mixup-based framework for improving
class-imbalanced node classification on graphs. However, directly performing
mixup in the input space or embedding space may produce out-of-domain samples
due to the extreme sparsity of minority classes; hence we construct semantic
relation spaces that allows the Feature Mixup to be performed at the semantic
level. Moreover, we apply two context-based self-supervised techniques to
capture both local and global information in the graph structure and then
propose Edge Mixup specifically for graph data. Finally, we develop a
\emph{Reinforcement Mixup} mechanism to adaptively determine how many samples
are to be generated by mixup for those minority classes. Extensive experiments
on three real-world datasets show that GraphMixup yields truly encouraging
results for class-imbalanced node classification tasks.
- Abstract(参考訳): 近年、グラフニューラルネットワーク(GNN)によるノード分類タスクの処理で大きな成功を収めている。
しかし、既存のGNNの多くは、異なるクラスのノードサンプルが平衡であるという仮定に基づいているが、多くの実世界のグラフでは、クラス不均衡の問題が存在する。
この場合、GNN分類器を生データで直接訓練すると、これらの少数クラスのサンプルが不足し、結果として準最適性能が得られる。
本稿では,グラフ上のクラス不均衡ノード分類を改善するための新しいミックスアップベースフレームワークであるgraphmixupを提案する。
しかし、入力空間や埋め込み空間で直接ミックスアップを行うと、マイノリティクラスが極端に分散しているため、ドメイン外のサンプルを生成する可能性があるため、機能ミックスアップをセマンティックレベルで実行できるようにセマンティックな関係空間を構築する。
さらに,2つの文脈に基づく自己教師付き手法を適用し,グラフ構造における局所的情報と大域的情報の両方をキャプチャし,グラフデータのためのエッジミックスアップを提案する。
最後に,これらのマイノリティクラスをミックスアップすることで生成するサンプル数を適応的に決定する機構である \emph{reinforcement mixup} を開発した。
3つの実世界のデータセットに関する広範な実験は、graphmixupがクラス不均衡なノード分類タスクに真に奨励的な結果をもたらすことを示している。
関連論文リスト
- Cluster-guided Contrastive Class-imbalanced Graph Classification [10.48026949398536]
C$3$GNNを提案する。これはクラスタリングのアイデアをコントラスト学習に統合し、クラス不均衡グラフ分類を強化する。
C$3$GNNクラスタは、各マジョリティクラスから複数のサブクラスにグラフ化され、サイズはマイノリティクラスに匹敵する。
教師付きコントラスト学習は、階層的に効率的なグラフ表現を学習するために使用され、モデルが多数派のクラスにおける意味的部分構造を徹底的に探索することができる。
論文 参考訳(メタデータ) (2024-12-17T15:04:54Z) - Open-World Semi-Supervised Learning for Node Classification [53.07866559269709]
ノード分類のためのオープンワールド半教師付き学習(Open World SSL)は、グラフコミュニティにおいて実用的だが未探索の課題である。
オープンワールド半教師付きノード分類のためのIM Balance-AwareメソッドOpenIMAを提案する。
論文 参考訳(メタデータ) (2024-03-18T05:12:54Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Heterophily-Based Graph Neural Network for Imbalanced Classification [19.51668009720269]
グラフの不均衡な分類をグラフヘテロフィリを考慮した一意なアプローチを導入する。
我々は,不均衡な分類戦略をヘテロフィリア認識GNNと統合したFast Im-GBKを提案する。
実世界のグラフに関する我々の実験は、ノード分類タスクの分類性能と効率において、我々のモデルが優れていることを示す。
論文 参考訳(メタデータ) (2023-10-12T21:19:47Z) - GraphSHA: Synthesizing Harder Samples for Class-Imbalanced Node
Classification [64.85392028383164]
クラス不均衡は、いくつかのクラスが他のクラスよりもはるかに少ないインスタンスを持つ現象である。
近年の研究では、既成のグラフニューラルネットワーク(GNN)が、マイナーなクラスサンプルを以下に表現することが確認されている。
HArderマイナーサンプルの合成によるGraphSHAの汎用化を提案する。
論文 参考訳(メタデータ) (2023-06-16T04:05:58Z) - Synthetic Over-sampling for Imbalanced Node Classification with Graph
Neural Networks [34.81248024048974]
グラフニューラルネットワーク(GNN)はノード分類の最先端性能を実現している。
多くの実世界のシナリオでは、ノードクラスは不均衡であり、グラフのほとんどの部分を構成する多数派クラスもある。
本研究では、マイノリティクラスの擬似インスタンスを生成し、トレーニングデータのバランスをとることで、この問題に対処する。
論文 参考訳(メタデータ) (2022-06-10T19:47:05Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Imbalanced Graph Classification via Graph-of-Graph Neural Networks [16.589373163769853]
グラフニューラルネットワーク(GNN)は、グラフの分類ラベルを識別するグラフ表現の学習において、前例のない成功を収めている。
本稿では,グラフ不均衡問題を軽減する新しいフレームワークであるグラフ・オブ・グラフニューラルネットワーク(G$2$GNN)を提案する。
提案したG$2$GNNは,F1-macroとF1-microのスコアにおいて,多くのベースラインを約5%上回る性能を示した。
論文 参考訳(メタデータ) (2021-12-01T02:25:47Z) - Learning Hierarchical Graph Neural Networks for Image Clustering [81.5841862489509]
本稿では,画像の集合を未知の個数にクラスタリングする方法を学ぶ階層型グラフニューラルネットワーク(GNN)モデルを提案する。
我々の階層的なGNNは、階層の各レベルで予測される連結コンポーネントをマージして、次のレベルで新しいグラフを形成するために、新しいアプローチを用いています。
論文 参考訳(メタデータ) (2021-07-03T01:28:42Z) - Graph Classification by Mixture of Diverse Experts [67.33716357951235]
我々は,不均衡なグラフ分類に多様な専門家の混在を利用したフレームワークであるGraphDIVEを提案する。
GraphDIVEは、分割と並列の原則により、不均衡なグラフデータセットを複数のサブセットに分割するゲーティングネットワークを採用しています。
実世界の不均衡グラフデータセットに関する実験は、GraphDIVEの有効性を示している。
論文 参考訳(メタデータ) (2021-03-29T14:03:03Z) - GraphSMOTE: Imbalanced Node Classification on Graphs with Graph Neural
Networks [28.92347073786722]
グラフニューラルネットワーク(GNN)はノード分類の最先端性能を達成した。
本稿では,ノード間の類似性をエンコードするために埋め込み空間を構築する新しいフレームワークであるgraphsmoteを提案する。
この空間で新しいサンプルが合成され、真正性が保証される。
論文 参考訳(メタデータ) (2021-03-16T03:23:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。