論文の概要: Imbalanced Nodes Classification for Graph Neural Networks Based on
Valuable Sample Mining
- arxiv url: http://arxiv.org/abs/2209.08514v1
- Date: Sun, 18 Sep 2022 09:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 16:42:23.551325
- Title: Imbalanced Nodes Classification for Graph Neural Networks Based on
Valuable Sample Mining
- Title(参考訳): 貴重なサンプルマイニングに基づくグラフニューラルネットワークの不均衡ノード分類
- Authors: Min Liu, Siwen Jin, Luo Jin, Shuohan Wang, Yu Fang, Yuliang Shi
- Abstract要約: 不均衡問題に対する従来のアルゴリズムレベルのアプローチに基づいて、新たな損失関数FD-Lossを再構成する。
我々の損失関数は、ノード分類タスクの既存の手法と比較して、サンプルノードの不均衡を効果的に解決し、分類精度を4%向上させることができる。
- 参考スコア(独自算出の注目度): 9.156427521259195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Node classification is an important task in graph neural networks, but most
existing studies assume that samples from different classes are balanced.
However, the class imbalance problem is widespread and can seriously affect the
model's performance. Reducing the adverse effects of imbalanced datasets on
model training is crucial to improve the model's performance. Therefore, a new
loss function FD-Loss is reconstructed based on the traditional algorithm-level
approach to the imbalance problem. Firstly, we propose sample mismeasurement
distance to filter edge-hard samples and simple samples based on the
distribution. Then, the weight coefficients are defined based on the
mismeasurement distance and used in the loss function weighting term, so that
the loss function focuses only on valuable samples. Experiments on several
benchmarks demonstrate that our loss function can effectively solve the sample
node imbalance problem and improve the classification accuracy by 4% compared
to existing methods in the node classification task.
- Abstract(参考訳): ノード分類はグラフニューラルネットワークにおいて重要なタスクであるが、既存の研究のほとんどは異なるクラスからのサンプルがバランスを取っていると仮定している。
しかし、クラス不均衡問題は広く、モデルの性能に深刻な影響を及ぼす可能性がある。
モデルトレーニングにおける不均衡データセットの悪影響を減らすことは、モデルのパフォーマンスを改善するために不可欠である。
したがって、従来のアルゴリズムレベルの不均衡問題に対するアプローチに基づいて、新たな損失関数FD-Lossを再構成する。
まず,エッジハードサンプルと簡単なサンプルを分布に基づいてフィルタするサンプル測定距離を提案する。
そして、誤測定距離に基づいて重み係数を定義し、損失関数重み付け項で使用することにより、損失関数が貴重なサンプルのみに焦点を当てる。
いくつかのベンチマーク実験により, 損失関数はノードの不均衡問題を効果的に解くことができ, ノード分類タスクの既存手法と比較して, 分類精度を4%向上できることが示された。
関連論文リスト
- Meta-GCN: A Dynamically Weighted Loss Minimization Method for Dealing with the Data Imbalance in Graph Neural Networks [5.285761906707429]
そこで我々は,メタGCNというメタ学習アルゴリズムを提案し,サンプル重み付けを適応的に学習する。
我々は,Meta-GCNが最先端フレームワークや他のベースラインを精度で上回ることを示した。
論文 参考訳(メタデータ) (2024-06-24T18:59:24Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Scale-Equivalent Distillation for Semi-Supervised Object Detection [57.59525453301374]
近年のSemi-Supervised Object Detection (SS-OD) 法は主に自己学習に基づいており、教師モデルにより、ラベルなしデータを監視信号としてハードな擬似ラベルを生成する。
実験結果から,これらの手法が直面する課題を分析した。
本稿では,大規模オブジェクトサイズの分散とクラス不均衡に頑健な簡易かつ効果的なエンド・ツー・エンド知識蒸留フレームワークであるSED(Scale-Equivalent Distillation)を提案する。
論文 参考訳(メタデータ) (2022-03-23T07:33:37Z) - Multi-loss ensemble deep learning for chest X-ray classification [0.8594140167290096]
クラス不均衡は、異常サンプルの数が正常サンプルの数より少ない医療画像分類タスクでよく見られる。
本稿では,DLモデルを訓練し,その性能を多クラス分類設定で解析する新しい損失関数を提案する。
論文 参考訳(メタデータ) (2021-09-29T14:14:04Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Imbalanced Image Classification with Complement Cross Entropy [10.35173901214638]
不正なクラスにおける出力スコアをほとんど無視するクロスエントロピーの研究を行う。
本研究は,不規則なクラスにおける予測確率が不均衡画像分類の予測精度を向上させることを明らかにする。
提案された損失により、基底真理クラスは他のクラスをソフトマックス確率で圧倒する。
論文 参考訳(メタデータ) (2020-09-04T13:46:24Z) - Salvage Reusable Samples from Noisy Data for Robust Learning [70.48919625304]
本稿では,Web画像を用いた深部FGモデルのトレーニングにおいて,ラベルノイズに対処するための再利用可能なサンプル選択と修正手法を提案する。
私たちのキーとなるアイデアは、再利用可能なサンプルの追加と修正を行い、それらをクリーンな例とともに活用してネットワークを更新することです。
論文 参考訳(メタデータ) (2020-08-06T02:07:21Z) - Learning a Unified Sample Weighting Network for Object Detection [113.98404690619982]
地域サンプリングや重み付けは、現代の地域ベースの物体検出器の成功に極めて重要である。
サンプル重み付けはデータ依存でタスク依存であるべきだと我々は主張する。
サンプルのタスク重みを予測するための統一的なサンプル重み付けネットワークを提案する。
論文 参考訳(メタデータ) (2020-06-11T16:19:16Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。