論文の概要: IntraMix: Intra-Class Mixup Generation for Accurate Labels and Neighbors
- arxiv url: http://arxiv.org/abs/2405.00957v2
- Date: Fri, 01 Nov 2024 03:51:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-04 14:32:47.174791
- Title: IntraMix: Intra-Class Mixup Generation for Accurate Labels and Neighbors
- Title(参考訳): イントラミクス:正確なラベルと隣人のためのクラス内混合生成
- Authors: Shenghe Zheng, Hongzhi Wang, Xianglong Liu,
- Abstract要約: グラフニューラルネットワーク(GNN)は、様々なタスクにおいて優れたパフォーマンスを示している。
グラフの一般的な課題は、ノードの正確な(高品質な)ラベルと限られた隣り合うラベルである。
既存のグラフ拡張手法は通常、これらの課題の1つにのみ対処する。
両課題を同時に解決するために,IntraMixと呼ばれるエレガントな手法を提案する。
- 参考スコア(独自算出の注目度): 15.281223268780694
- License:
- Abstract: Graph Neural Networks (GNNs) have shown great performance in various tasks, with the core idea of learning from data labels and aggregating messages within the neighborhood of nodes. However, the common challenges in graphs are twofold: insufficient accurate (high-quality) labels and limited neighbors for nodes, resulting in weak GNNs. Existing graph augmentation methods typically address only one of these challenges, often adding training costs or relying on oversimplified or knowledge-intensive strategies, limiting their generalization. To simultaneously address both challenges faced by graphs in a generalized way, we propose an elegant method called IntraMix. Considering the incompatibility of vanilla Mixup with the complex topology of graphs, IntraMix innovatively employs Mixup among inaccurate labeled data of the same class, generating high-quality labeled data at minimal cost. Additionally, it finds data with high confidence of being clustered into the same group as the generated data to serve as their neighbors, thereby enriching the neighborhoods of graphs. IntraMix efficiently tackles both issues faced by graphs and challenges the prior notion of the limited effectiveness of Mixup in node classification. IntraMix is a theoretically grounded plug-in-play method that can be readily applied to all GNNs. Extensive experiments demonstrate the effectiveness of IntraMix across various GNNs and datasets. Our code is available at: https://github.com/Zhengsh123/IntraMix.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、データラベルから学習し、ノードの近傍でメッセージを集約するという、さまざまなタスクにおいて優れたパフォーマンスを示している。
しかし、グラフの一般的な課題は2つある: 不十分な正確な(高品質な)ラベルとノードの限定された隣人、結果としてGNNが弱くなる。
既存のグラフ拡張手法は、通常これらの課題の1つにのみ対処し、しばしばトレーニングコストを追加するか、過度に単純化された、あるいは知識集約的な戦略に依存し、一般化を制限する。
グラフが直面する両課題を一般化した方法で同時に解決するために,IntraMixと呼ばれるエレガントな手法を提案する。
グラフの複雑なトポロジとバニラ・ミックスアップの不整合性を考えると、IntraMixは、同じクラスの不正確なラベル付きデータの中でMixupを革新的に利用し、最小限のコストで高品質なラベル付きデータを生成する。
さらに、生成したデータと同じグループにクラスタ化される自信の高いデータが隣人として機能し、グラフの近傍を豊かにする。
イントラミクスはグラフが直面する両方の問題に効果的に取り組み、ノード分類におけるミックスアップの限定的な有効性という事前概念に挑戦する。
イントラMixは理論上、すべてのGNNに容易に適用できるプラグインプレイ法である。
大規模な実験では、様々なGNNやデータセットにまたがるイントラMixの有効性が示されている。
私たちのコードは、https://github.com/Zhengsh123/IntraMix.comで利用可能です。
関連論文リスト
- GeoMix: Towards Geometry-Aware Data Augmentation [76.09914619612812]
Mixupは画像分類におけるラベル付き限られたデータによる課題の緩和にかなりの成功を収めている。
In-place graph editing を利用した簡易かつ解釈可能な混合手法 Geometric Mixup (GeoMix) を提案する。
論文 参考訳(メタデータ) (2024-07-15T12:58:04Z) - NodeMixup: Tackling Under-Reaching for Graph Neural Networks [27.393295683072406]
グラフニューラルネットワーク(GNN)は,半教師付きノード分類問題の解法として主流となっている。
グラフ内のラベル付きノードの位置分布が不均一であるため、ラベル付きノードはラベルなしノードのごく一部にしかアクセスできないため、アンファンダーリーチングの問題が発生する。
GNNのアンダーリーチングに取り組むために,NodeMixupと呼ばれるアーキテクチャに依存しない手法を提案する。
論文 参考訳(メタデータ) (2023-12-20T13:56:27Z) - S-Mixup: Structural Mixup for Graph Neural Networks [18.681950665186005]
構造混合(S-Mixup)と呼ばれるノード分類のための新しいミックスアップ拡張を提案する。
S-Mixupはグラフニューラルネットワーク(GNN)分類器を介して、グラフ内のラベルなしノードの擬似ラベルと予測信頼度を取得する。
ノード分類タスクで評価したS-Mixupの有効性を示す。
論文 参考訳(メタデータ) (2023-08-16T02:08:46Z) - Graph Mixup with Soft Alignments [49.61520432554505]
本研究では,画像上での使用に成功しているミキサアップによるグラフデータの増大について検討する。
ソフトアライメントによるグラフ分類のための簡易かつ効果的な混合手法であるS-Mixupを提案する。
論文 参考訳(メタデータ) (2023-06-11T22:04:28Z) - Graph Mixture of Experts: Learning on Large-Scale Graphs with Explicit
Diversity Modeling [60.0185734837814]
グラフニューラルネットワーク(GNN)は、グラフデータからの学習に広く応用されている。
GNNの一般化能力を強化するため、グラフ強化のような技術を用いて、トレーニンググラフ構造を増強することが慣例となっている。
本研究では,GNNにMixture-of-Experts(MoE)の概念を導入する。
論文 参考訳(メタデータ) (2023-04-06T01:09:36Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - G-Mixup: Graph Data Augmentation for Graph Classification [55.63157775049443]
Mixupは、2つのランダムサンプル間の特徴とラベルを補間することにより、ニューラルネットワークの一般化とロバスト性を改善する上で優位性を示している。
グラフ分類のためのグラフを増補するために$mathcalG$-Mixupを提案し、グラフの異なるクラスのジェネレータ(すなわちグラフ)を補間する。
実験により、$mathcalG$-MixupはGNNの一般化とロバスト性を大幅に改善することが示された。
論文 参考訳(メタデータ) (2022-02-15T04:09:44Z) - Intrusion-Free Graph Mixup [33.07540841212878]
グラフニューラルネットワーク(GNN)の一般化を改善するための,単純かつ効果的な正規化手法を提案する。
視覚とテキストのためのMixup regularizerの最近の進歩を利用して、ランダムなサンプルペアとそのラベルを補間して、トレーニング用の合成サンプルを作成する。
提案手法は,グラフ分類学習を効果的に正規化することが可能であり,一般的なグラフ拡張ベースラインよりも予測精度が優れている。
論文 参考訳(メタデータ) (2021-10-18T14:16:00Z) - GraphMixup: Improving Class-Imbalanced Node Classification on Graphs by
Self-supervised Context Prediction [25.679620842010422]
本稿では,グラフ上のクラス不均衡ノード分類を改善するための新しい混合フレームワークであるGraphMixupを提案する。
我々は,これらのマイノリティクラスに対する混合によって生成されるサンプル数を適応的に決定するEmphReinforcement Mixupメカニズムを開発した。
3つの実世界のデータセットの実験により、GraphMixupはクラス不均衡なノード分類タスクに対して真に励まされる結果が得られることが示された。
論文 参考訳(メタデータ) (2021-06-21T14:12:16Z) - Exploiting Heterogeneous Graph Neural Networks with Latent Worker/Task
Correlation Information for Label Aggregation in Crowdsourcing [72.34616482076572]
クラウドソーシングは専門家ではなく、専門家でない労働者からラベルを集めるのに便利であることから、多くの注目を集めている。
群集ラベルを集約するグラフニューラルネットワークに基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-25T10:12:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。