論文の概要: Balanced-MixUp for Highly Imbalanced Medical Image Classification
- arxiv url: http://arxiv.org/abs/2109.09850v1
- Date: Mon, 20 Sep 2021 21:31:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 01:38:08.172455
- Title: Balanced-MixUp for Highly Imbalanced Medical Image Classification
- Title(参考訳): 高バランス医用画像分類のためのバランスドミックスアップ
- Authors: Adrian Galdran, Gustavo Carneiro, Miguel A. Gonz\'alez Ballester
- Abstract要約: そこで本研究では,MixUp正則化手法に基づくトレーニングデータをサンプリングする新しいメカニズムを提案する。
我々は、高不均衡な網膜画像のデータセットと、胃腸内ビデオフレームの長いテールデータセットを実験した。
- 参考スコア(独自算出の注目度): 19.338350044289736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Highly imbalanced datasets are ubiquitous in medical image classification
problems. In such problems, it is often the case that rare classes associated
to less prevalent diseases are severely under-represented in labeled databases,
typically resulting in poor performance of machine learning algorithms due to
overfitting in the learning process. In this paper, we propose a novel
mechanism for sampling training data based on the popular MixUp regularization
technique, which we refer to as Balanced-MixUp. In short, Balanced-MixUp
simultaneously performs regular (i.e., instance-based) and balanced (i.e.,
class-based) sampling of the training data. The resulting two sets of samples
are then mixed-up to create a more balanced training distribution from which a
neural network can effectively learn without incurring in heavily under-fitting
the minority classes. We experiment with a highly imbalanced dataset of retinal
images (55K samples, 5 classes) and a long-tail dataset of gastro-intestinal
video frames (10K images, 23 classes), using two CNNs of varying representation
capabilities. Experimental results demonstrate that applying Balanced-MixUp
outperforms other conventional sampling schemes and loss functions specifically
designed to deal with imbalanced data. Code is released at
https://github.com/agaldran/balanced_mixup .
- Abstract(参考訳): 高不均衡データセットは、医療画像分類問題においてユビキタスである。
このような問題では、あまり普及しない病気に関連する稀なクラスがラベル付きデータベースでは著しく低表現であり、学習プロセスの過度な適合によって機械学習アルゴリズムの性能が低下することが多い。
本稿では,一般的なミックスアップ正規化手法であるバランスドミックスアップを用いて,トレーニングデータをサンプリングする新しいメカニズムを提案する。
要するに、 balanced-mixupはトレーニングデータの正規化(インスタンスベース)と均衡化(クラスベース)を同時に行う。
結果として得られた2つのサンプルセットが混合され、よりバランスのとれたトレーニングディストリビューションが作成されます。
我々は,高バランスな網膜画像データセット(55Kサンプル,5クラス)と胃腸内ビデオフレームの長いテールデータセット(10K画像,23クラス)を,表現能力の異なる2つのCNNを用いて実験した。
Balanced-MixUpの適用は、不均衡なデータを扱うように設計された従来のサンプリング手法や損失関数よりも優れていることを示す。
コードはhttps://github.com/agaldran/balanced_mixupでリリースされる。
関連論文リスト
- Iterative Online Image Synthesis via Diffusion Model for Imbalanced
Classification [29.730360798234294]
医用画像分類におけるクラス不均衡問題に対処するための反復オンライン画像合成フレームワークを提案する。
このフレームワークにはオンライン画像合成(OIS)と精度適応サンプリング(AAS)という2つの重要なモジュールが組み込まれている。
不均衡な分類に対処するための提案手法の有効性を評価するため,HAM10000およびAPTOSデータセットを用いて実験を行った。
論文 参考訳(メタデータ) (2024-03-13T10:51:18Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Simplifying Neural Network Training Under Class Imbalance [77.39968702907817]
実世界のデータセットは、しばしば高いクラス不均衡であり、ディープラーニングモデルのパフォーマンスに悪影響を及ぼす可能性がある。
クラス不均衡下でのニューラルネットワークのトレーニングに関する研究の大部分は、特殊な損失関数、サンプリング技術、または2段階のトレーニング手順に焦点を当てている。
バッチサイズやデータ拡張,ラベルの平滑化といった,標準的なディープラーニングパイプラインの既存のコンポーネントを単にチューニングするだけで,そのような特殊なクラス不均衡な手法を使わずに,最先端のパフォーマンスを達成できることを実証する。
論文 参考訳(メタデータ) (2023-12-05T05:52:44Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - Effective Class-Imbalance learning based on SMOTE and Convolutional
Neural Networks [0.1074267520911262]
不均衡データ(ID)は、機械学習(ML)モデルから満足な結果を得るための問題である。
本稿では,Deep Neural Networks(DNN)とConvolutional Neural Networks(CNN)に基づく手法の有効性を検討する。
信頼性の高い結果を得るために,ランダムにシャッフルしたデータ分布を用いて100回実験を行った。
論文 参考訳(メタデータ) (2022-09-01T07:42:16Z) - Phased Progressive Learning with Coupling-Regulation-Imbalance Loss for
Imbalanced Classification [11.673344551762822]
ディープニューラルネットワークは、一般に、異なるクラス間の量不均衡と分類困難の不均衡に苦しむデータセットで性能が良くない。
表象学習から上位クラス化学習への学習強調を円滑に伝達する段階的な進行学習スケジュールが提案された。
私たちのコードはまもなくオープンソースになります。
論文 参考訳(メタデータ) (2022-05-24T14:46:39Z) - ReMix: Calibrated Resampling for Class Imbalance in Deep learning [7.470456340416917]
本研究では,バッチ再サンプリング,インスタンス混合,ソフトラベルを活用するトレーニング手法であるReMixを提案する。
以上の結果から,ReMixでトレーニングした高密度ネットとCNNは,g平均値より優れ,バランスの取れたBrierスコアにより校正精度がよいことが示唆された。
論文 参考訳(メタデータ) (2020-12-03T22:39:26Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。