論文の概要: Imbalanced Image Classification with Complement Cross Entropy
- arxiv url: http://arxiv.org/abs/2009.02189v4
- Date: Wed, 4 Aug 2021 10:52:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 02:08:27.200586
- Title: Imbalanced Image Classification with Complement Cross Entropy
- Title(参考訳): 補間エントロピーを用いた不均衡画像分類
- Authors: Yechan Kim, Younkwan Lee, and Moongu Jeon
- Abstract要約: 不正なクラスにおける出力スコアをほとんど無視するクロスエントロピーの研究を行う。
本研究は,不規則なクラスにおける予測確率が不均衡画像分類の予測精度を向上させることを明らかにする。
提案された損失により、基底真理クラスは他のクラスをソフトマックス確率で圧倒する。
- 参考スコア(独自算出の注目度): 10.35173901214638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, deep learning models have achieved great success in computer vision
applications, relying on large-scale class-balanced datasets. However,
imbalanced class distributions still limit the wide applicability of these
models due to degradation in performance. To solve this problem, in this paper,
we concentrate on the study of cross entropy which mostly ignores output scores
on incorrect classes. This work discovers that neutralizing predicted
probabilities on incorrect classes improves the prediction accuracy for
imbalanced image classification. This paper proposes a simple but effective
loss named complement cross entropy based on this finding. The proposed loss
makes the ground truth class overwhelm the other classes in terms of softmax
probability, by neutralizing probabilities of incorrect classes, without
additional training procedures. Along with it, this loss facilitates the models
to learn key information especially from samples on minority classes. It
ensures more accurate and robust classification results on imbalanced
distributions. Extensive experiments on imbalanced datasets demonstrate the
effectiveness of the proposed method.
- Abstract(参考訳): 近年、ディープラーニングモデルは大規模なクラスバランスデータセットに依存するコンピュータビジョンアプリケーションで大きな成功を収めている。
しかし、不均衡なクラス分布は性能の低下によりこれらのモデルの適用範囲を制限している。
この問題を解決するため、本稿では、不正なクラスにおける出力スコアをほとんど無視するクロスエントロピーの研究に集中する。
本研究は,不適切なクラスにおける予測確率の中立化が不均衡画像分類の予測精度を向上させることを明らかにする。
本稿では,この知見に基づく補間エントロピーという,単純だが効果的な損失を提案する。
提案された損失により、基底真理クラスは他のクラスをソフトマックス確率で圧倒し、不正確なクラスの確率を、追加のトレーニング手順なしで中和する。
それと同時に、この損失はモデルが特にマイノリティクラスのサンプルから重要な情報を学ぶことを促進する。
不均衡分布のより正確でロバストな分類結果を保証する。
不均衡データセットに関する広範囲な実験により,提案手法の有効性が示された。
関連論文リスト
- When resampling/reweighting improves feature learning in imbalanced classification?: A toy-model study [5.5730368125641405]
クラス不均衡の存在下での特徴学習性能に対するクラスワイドリサンプリング/リウェイト効果を明らかにすることを目的とした二分分類のおもちゃモデルについて検討した。
その結果,再サンプリング/再重み付けの状況が,損失や分類器の選択に関係なく,最高の特徴学習性能を与えるケースが存在することがわかった。
論文 参考訳(メタデータ) (2024-09-09T13:31:00Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - Imbalanced Nodes Classification for Graph Neural Networks Based on
Valuable Sample Mining [9.156427521259195]
不均衡問題に対する従来のアルゴリズムレベルのアプローチに基づいて、新たな損失関数FD-Lossを再構成する。
我々の損失関数は、ノード分類タスクの既存の手法と比較して、サンプルノードの不均衡を効果的に解決し、分類精度を4%向上させることができる。
論文 参考訳(メタデータ) (2022-09-18T09:22:32Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Prototype-Anchored Learning for Learning with Imperfect Annotations [83.7763875464011]
不完全な注釈付きデータセットからバイアスのない分類モデルを学ぶことは困難である。
本稿では,様々な学習に基づく分類手法に容易に組み込むことができるプロトタイプ・アンコレッド学習法を提案する。
我々は,PALがクラス不均衡学習および耐雑音学習に与える影響を,合成および実世界のデータセットに関する広範な実験により検証した。
論文 参考訳(メタデータ) (2022-06-23T10:25:37Z) - Throwing Away Data Improves Worst-Class Error in Imbalanced
Classification [36.91428748713018]
クラス不均衡は分類問題に悪影響を及ぼすが、その治療は理論と実践において異なる。
本稿では,線形分離可能なデータに対する分類器の誤りを記述できる学習理論の開発に挑戦する。
論文 参考訳(メタデータ) (2022-05-23T23:43:18Z) - Imbalanced Classification via Explicit Gradient Learning From Augmented
Data [0.0]
本稿では、与えられた不均衡なデータセットを新しいマイノリティインスタンスに拡張する、新しい深層メタラーニング手法を提案する。
提案手法の利点は, 種々の不均衡比を持つ合成および実世界のデータセット上で実証される。
論文 参考訳(メタデータ) (2022-02-21T22:16:50Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。