論文の概要: Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification
- arxiv url: http://arxiv.org/abs/2208.02951v1
- Date: Fri, 5 Aug 2022 01:23:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:54:51.723195
- Title: Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification
- Title(参考訳): 不均衡分類のための最適トランスポートを用いた再重み付け例の学習
- Authors: Dandan Guo, Zhuo Li, Meixi Zheng, He Zhao, Mingyuan Zhou, Hongyuan Zha
- Abstract要約: 不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
- 参考スコア(独自算出の注目度): 74.62203971625173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imbalanced data pose challenges for deep learning based classification
models. One of the most widely-used approaches for tackling imbalanced data is
re-weighting, where training samples are associated with different weights in
the loss function. Most of existing re-weighting approaches treat the example
weights as the learnable parameter and optimize the weights on the meta set,
entailing expensive bilevel optimization. In this paper, we propose a novel
re-weighting method based on optimal transport (OT) from a distributional point
of view. Specifically, we view the training set as an imbalanced distribution
over its samples, which is transported by OT to a balanced distribution
obtained from the meta set. The weights of the training samples are the
probability mass of the imbalanced distribution and learned by minimizing the
OT distance between the two distributions. Compared with existing methods, our
proposed one disengages the dependence of the weight learning on the concerned
classifier at each iteration. Experiments on image, text and point cloud
datasets demonstrate that our proposed re-weighting method has excellent
performance, achieving state-of-the-art results in many cases and providing a
promising tool for addressing the imbalanced classification issue.
- Abstract(参考訳): 不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡データに取り組む最も広く使われているアプローチの1つは、トレーニングサンプルが損失関数の異なる重みに関連付けられる再重み付けである。
既存の再重み付けアプローチのほとんどは、サンプルウェイトを学習可能なパラメータとして扱い、メタセット上の重みを最適化し、高価な双レベル最適化を伴います。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
具体的には、トレーニングセットをサンプル上の不均衡分布とみなし、そのメタセットから得られたバランス分布にOTで輸送する。
トレーニングサンプルの重量は、不均衡分布の確率質量であり、2つの分布間のOT距離を最小化することによって学習される。
既存の手法と比較して,提案手法は各反復における重み付け学習が関連する分類器への依存を解き放つ。
画像,テキスト,ポイントクラウドデータセットの実験により,提案手法は優れた性能を示し,多くのケースで最先端の結果が得られ,不均衡な分類問題に対処するための有望なツールを提供する。
関連論文リスト
- Optimizing importance weighting in the presence of sub-population shifts [0.0]
トレーニングデータとテストデータの間の分散シフトは、機械学習モデルの性能を著しく損なう可能性がある。
トレーニングデータの有限標本サイズによる推定モデルのばらつきの増大を無視するため,既存の重み付けは準最適であると主張する。
重みとモデルパラメータを同時に最適化する二段階最適化手法を提案する。
論文 参考訳(メタデータ) (2024-10-18T09:21:10Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Adaptive Distribution Calibration for Few-Shot Learning with
Hierarchical Optimal Transport [78.9167477093745]
本稿では,新しいサンプルとベースクラス間の適応重み行列を学習し,新しい分布校正法を提案する。
標準ベンチマーク実験の結果,提案したプラグ・アンド・プレイモデルの方が競合する手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-10-09T02:32:57Z) - Residual-Quantile Adjustment for Adaptive Training of Physics-informed
Neural Network [2.5769426017309915]
本稿では, 学習効率向上のためのサンプルの適応選択におけるボトルネックは, 数値残差の尾分布の挙動であることを示す。
トレーニングサンプル毎の重量選択に優れたResidual-Quantile Adjustment (RQA)法を提案する。
実験結果から,提案手法は様々な偏微分方程式(PDE)問題において,適応的手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-09-09T12:39:38Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Continuous Weight Balancing [0.0]
高度に不均衡あるいは歪んだ特徴を有する問題に対して,試料重みを簡易に選択する手法を提案する。
推定ソースと指定されたターゲット分布間の転送関数からサンプルウェイトを導出します。
本手法は回帰処理と分類処理の両方において非重み付きモデルと離散重み付きモデルの両方に優れる。
論文 参考訳(メタデータ) (2021-03-30T18:03:12Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。