論文の概要: Topological Augmentation for Class-Imbalanced Node Classification
- arxiv url: http://arxiv.org/abs/2308.14181v1
- Date: Sun, 27 Aug 2023 19:01:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 16:25:43.517899
- Title: Topological Augmentation for Class-Imbalanced Node Classification
- Title(参考訳): クラス不均衡ノード分類のためのトポロジ拡張
- Authors: Zhining Liu, Zhichen Zeng, Ruizhong Qiu, Hyunsik Yoo, David Zhou, Zhe
Xu, Yada Zhu, Kommy Weldemariam, Jingrui He, Hanghang Tong
- Abstract要約: 探索下トポロジ中心の視点から,クラス不均衡バイアスの源泉について検討した。
そこで我々は, アンビバシアン/ディスタントメッセージパッシングの影響を受けやすいノードを動的に修正する, 軽量なトポロジカル拡張手法TOBAを考案した。
ToBAはモデルに依存しない、効率的で多用途なソリューションであり、シームレスに組み合わせて、他の不均衡処理技術をさらに促進することができる。
- 参考スコア(独自算出の注目度): 64.20437487896343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class imbalance is prevalent in real-world node classification tasks and
often biases graph learning models toward majority classes. Most existing
studies root from a node-centric perspective and aim to address the class
imbalance in training data by node/class-wise reweighting or resampling. In
this paper, we approach the source of the class-imbalance bias from an
under-explored topology-centric perspective. Our investigation reveals that
beyond the inherently skewed training class distribution, the graph topology
also plays an important role in the formation of predictive bias: we identify
two fundamental challenges, namely ambivalent and distant message-passing, that
can exacerbate the bias by aggravating majority-class over-generalization and
minority-class misclassification. In light of these findings, we devise a
lightweight topological augmentation method ToBA to dynamically rectify the
nodes influenced by ambivalent/distant message-passing during graph learning,
so as to mitigate the class-imbalance bias. We highlight that ToBA is a
model-agnostic, efficient, and versatile solution that can be seamlessly
combined with and further boost other imbalance-handling techniques. Systematic
experiments validate the superior performance of ToBA in both promoting
imbalanced node classification and mitigating the prediction bias between
different classes.
- Abstract(参考訳): クラス不均衡は実世界のノード分類タスクでよく見られ、しばしばグラフ学習モデルを多数クラスにバイアスする。
既存の研究のほとんどはノード中心の視点に根ざしており、ノード/クラスワイド再重み付けや再サンプリングによるトレーニングデータにおけるクラス不均衡への対処を目指している。
本稿では,探索下トポロジ中心の視点から,クラス不均衡バイアスの源泉にアプローチする。
我々の調査は、本質的に歪んだトレーニングクラス分布を超えて、グラフトポロジーは予測バイアスの形成において重要な役割を担っていることを明らかにしている。
これらの結果を踏まえて,グラフ学習中のメッセージパッシングによって影響を受けるノードを動的に補正するために,軽量なトポロジー拡張手法であるtobaを考案し,クラス不均衡バイアスを緩和する。
ToBAはモデルに依存しない、効率的で、多目的なソリューションであり、シームレスに組み合わせて、他の不均衡処理技術をさらに促進できる。
系統的な実験は,不均衡ノード分類と異なるクラス間の予測バイアスの軽減の両方において,tobaの優れた性能を検証する。
関連論文リスト
- Cluster-guided Contrastive Class-imbalanced Graph Classification [10.48026949398536]
C$3$GNNを提案する。これはクラスタリングのアイデアをコントラスト学習に統合し、クラス不均衡グラフ分類を強化する。
C$3$GNNクラスタは、各マジョリティクラスから複数のサブクラスにグラフ化され、サイズはマイノリティクラスに匹敵する。
教師付きコントラスト学習は、階層的に効率的なグラフ表現を学習するために使用され、モデルが多数派のクラスにおける意味的部分構造を徹底的に探索することができる。
論文 参考訳(メタデータ) (2024-12-17T15:04:54Z) - Simplifying Neural Network Training Under Class Imbalance [77.39968702907817]
実世界のデータセットは、しばしば高いクラス不均衡であり、ディープラーニングモデルのパフォーマンスに悪影響を及ぼす可能性がある。
クラス不均衡下でのニューラルネットワークのトレーニングに関する研究の大部分は、特殊な損失関数、サンプリング技術、または2段階のトレーニング手順に焦点を当てている。
バッチサイズやデータ拡張,ラベルの平滑化といった,標準的なディープラーニングパイプラインの既存のコンポーネントを単にチューニングするだけで,そのような特殊なクラス不均衡な手法を使わずに,最先端のパフォーマンスを達成できることを実証する。
論文 参考訳(メタデータ) (2023-12-05T05:52:44Z) - Online Continual Learning via Logit Adjusted Softmax [24.327176079085703]
訓練中のクラス間の不均衡は、忘れる主な原因として特定されている。
トレーニング中のモデルロジットの簡単な調整は、事前クラスバイアスに効果的に抵抗することができる。
提案手法であるLogit Adjusted Softmaxは,クラス増分だけでなく,現実的な一般設定においても,クラス間不均衡の影響を軽減することができる。
論文 参考訳(メタデータ) (2023-11-11T03:03:33Z) - Graph Embedded Intuitionistic Fuzzy Random Vector Functional Link Neural
Network for Class Imbalance Learning [4.069144210024564]
クラス不均衡学習(GE-IFRVFL-CIL)モデルのためのグラフ埋め込み直観的ファジィRVFLを提案する。
提案したGE-IFRVFL-CILモデルは、クラス不均衡問題に対処し、ノイズとアウトレーヤの有害な効果を軽減し、データセットの固有の幾何学的構造を保存するための有望な解決策を提供する。
論文 参考訳(メタデータ) (2023-07-15T20:45:45Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - Neural Collapse Inspired Attraction-Repulsion-Balanced Loss for
Imbalanced Learning [97.81549071978789]
勾配の異なる成分のバランスをとるために,Attraction-Repulsion-Balanced Loss (ARB-Loss)を提案する。
大規模分類とセグメンテーションデータセットの実験を行い、ARB-Lossは最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-04-19T08:23:23Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。