論文の概要: IntraMix: Intra-Class Mixup Generation for Accurate Labels and Neighbors
- arxiv url: http://arxiv.org/abs/2405.00957v1
- Date: Thu, 2 May 2024 02:38:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-03 18:04:13.464401
- Title: IntraMix: Intra-Class Mixup Generation for Accurate Labels and Neighbors
- Title(参考訳): イントラミクス:正確なラベルと隣人のためのクラス内混合生成
- Authors: Shenghe Zheng, Hongzhi Wang, Xianglong Liu,
- Abstract要約: グラフニューラルネットワーク(GNN)は、近隣情報を集約し、ラベルから学習するという中核的な考え方で、グラフ上での優れたパフォーマンスを示す。
ほとんどのグラフデータセットで一般的な課題は、不十分なハイクオリティラベルと近隣のLack of Neborhoodsであり、結果としてGNNが弱くなる。
この2つの課題を同時に解決するために,IntraMixと呼ばれるエレガントな手法を提案する。
- 参考スコア(独自算出の注目度): 15.281223268780694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) demonstrate excellent performance on graphs, with their core idea about aggregating neighborhood information and learning from labels. However, the prevailing challenges in most graph datasets are twofold of Insufficient High-Quality Labels and Lack of Neighborhoods, resulting in weak GNNs. Existing data augmentation methods designed to address these two issues often tackle only one. They may either require extensive training of generators, rely on overly simplistic strategies, or demand substantial prior knowledge, leading to suboptimal generalization abilities. To simultaneously address both of these two challenges, we propose an elegant method called IntraMix. IntraMix innovatively employs Mixup among low-quality labeled data of the same class, generating high-quality labeled data at minimal cost. Additionally, it establishes neighborhoods for the generated data by connecting them with data from the same class with high confidence, thereby enriching the neighborhoods of graphs. IntraMix efficiently tackles both challenges faced by graphs and challenges the prior notion of the limited effectiveness of Mixup in node classification. IntraMix serves as a universal framework that can be readily applied to all GNNs. Extensive experiments demonstrate the effectiveness of IntraMix across various GNNs and datasets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,周辺情報を集約し,ラベルから学習するという,グラフ上での優れたパフォーマンスを示す。
しかし、ほとんどのグラフデータセットにおける一般的な課題は、不十分な高品質ラベルと近隣のラックの2倍であり、結果としてGNNが弱くなる。
これら2つの問題に対処するために設計された既存のデータ拡張手法は、しばしば1つだけに対処する。
ジェネレータの広範な訓練が必要か、過度に単純化戦略に依存しているか、あるいはかなりの事前知識を要求するかのいずれかで、最適でない一般化能力に繋がる。
これら2つの課題を同時に解決するために,IntraMixと呼ばれるエレガントな手法を提案する。
イントラミクスは、同じクラスの低品質ラベル付きデータの中でMixupを革新的に採用し、最小コストで高品質ラベル付きデータを生成する。
さらに、同一クラスのデータを高い信頼性で接続することで、生成されたデータの近傍を確立し、グラフの近傍を豊かにする。
イントラミクスはグラフが直面する2つの課題に効果的に取り組み、ノード分類におけるミックスアップの限定的な有効性という事前概念に挑戦する。
イントラMixは、すべてのGNNに容易に適用可能な普遍的なフレームワークとして機能する。
大規模な実験では、様々なGNNやデータセットにまたがるイントラMixの有効性が示されている。
関連論文リスト
- GeoMix: Towards Geometry-Aware Data Augmentation [76.09914619612812]
Mixupは画像分類におけるラベル付き限られたデータによる課題の緩和にかなりの成功を収めている。
In-place graph editing を利用した簡易かつ解釈可能な混合手法 Geometric Mixup (GeoMix) を提案する。
論文 参考訳(メタデータ) (2024-07-15T12:58:04Z) - LOSS-GAT: Label Propagation and One-Class Semi-Supervised Graph
Attention Network for Fake News Detection [2.6396287656676725]
Loss-GATは、フェイクニュース検出のための半教師付き一級アプローチである。
我々は、ニュースを関心(フェイク)と非関心(リアル)の2つのグループに分類するために、2段階のラベル伝搬アルゴリズムを用いる。
論文 参考訳(メタデータ) (2024-02-13T12:02:37Z) - Efficient Heterogeneous Graph Learning via Random Projection [65.65132884606072]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Informative Pseudo-Labeling for Graph Neural Networks with Few Labels [12.83841767562179]
グラフニューラルネットワーク(GNN)は、グラフ上の半教師付きノード分類のための最先端の結果を得た。
非常に少数のレーベルでGNNを効果的に学習する方法の課題は、まだ解明されていない。
我々は、非常に少ないラベルを持つGNNの学習を容易にするために、InfoGNNと呼ばれる新しい情報的擬似ラベルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-20T01:49:30Z) - Meta Propagation Networks for Graph Few-shot Semi-supervised Learning [39.96930762034581]
本稿では,この問題を解決するために,メタ学習アルゴリズムを用いた新しいネットワークアーキテクチャを提案する。
基本的に,我々のMeta-PNフレームワークは,メタ学習ラベルの伝搬戦略を用いて,未ラベルノード上の高品質な擬似ラベルを推論する。
我々のアプローチは、様々なベンチマークデータセットの既存の技術と比較して、容易で実質的なパフォーマンス向上を提供する。
論文 参考訳(メタデータ) (2021-12-18T00:11:56Z) - Bag of Tricks for Training Deeper Graph Neural Networks: A Comprehensive
Benchmark Study [100.27567794045045]
ディープグラフニューラルネットワーク(GNN)のトレーニングは、非常に難しい。
我々は、深層GNNの「トリック」を評価するための最初の公正かつ再現可能なベンチマークを示す。
論文 参考訳(メタデータ) (2021-08-24T05:00:37Z) - Exploiting Heterogeneous Graph Neural Networks with Latent Worker/Task
Correlation Information for Label Aggregation in Crowdsourcing [72.34616482076572]
クラウドソーシングは専門家ではなく、専門家でない労働者からラベルを集めるのに便利であることから、多くの注目を集めている。
群集ラベルを集約するグラフニューラルネットワークに基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-25T10:12:37Z) - Contrastive and Generative Graph Convolutional Networks for Graph-based
Semi-Supervised Learning [64.98816284854067]
グラフベースのSemi-Supervised Learning (SSL)は、少数のラベル付きデータのラベルをグラフ経由で残りの巨大なラベル付きデータに転送することを目的としている。
本稿では,データ類似性とグラフ構造を両立させ,監視信号の強化を図るため,新しいGCNベースのSSLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-15T13:59:28Z) - Graphs, Entities, and Step Mixture [11.162937043309478]
エッジベース近傍関係とノードベース実体特徴の両方を考慮した新しいグラフニューラルネットワークを提案する。
集約的な実験により,提案したGESMは,8つのベンチマークグラフデータセット上で,最先端または同等のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-05-18T06:57:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。