論文の概要: Remix: Rebalanced Mixup
- arxiv url: http://arxiv.org/abs/2007.03943v3
- Date: Thu, 19 Nov 2020 13:33:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 12:40:00.869900
- Title: Remix: Rebalanced Mixup
- Title(参考訳): Remix: リバランスミックス
- Authors: Hsin-Ping Chou, Shih-Chieh Chang, Jia-Yu Pan, Wei Wei, Da-Cheng Juan
- Abstract要約: そこで本稿では,Mixupの定式化を緩和し,特徴とラベルの混合係数を解消する新たな正規化手法であるRemixを提案する。
我々は,Mixup,Manifold Mixup,CutMixといった最先端のレギュラー化技術について,クラス不均衡体制下で研究してきた。
iNaturalist 2018では、実世界の大規模不均衡データセット上でRemixを評価した。
- 参考スコア(独自算出の注目度): 25.733313524035232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep image classifiers often perform poorly when training data are heavily
class-imbalanced. In this work, we propose a new regularization technique,
Remix, that relaxes Mixup's formulation and enables the mixing factors of
features and labels to be disentangled. Specifically, when mixing two samples,
while features are mixed in the same fashion as Mixup, Remix assigns the label
in favor of the minority class by providing a disproportionately higher weight
to the minority class. By doing so, the classifier learns to push the decision
boundaries towards the majority classes and balance the generalization error
between majority and minority classes. We have studied the state-of-the art
regularization techniques such as Mixup, Manifold Mixup and CutMix under
class-imbalanced regime, and shown that the proposed Remix significantly
outperforms these state-of-the-arts and several re-weighting and re-sampling
techniques, on the imbalanced datasets constructed by CIFAR-10, CIFAR-100, and
CINIC-10. We have also evaluated Remix on a real-world large-scale imbalanced
dataset, iNaturalist 2018. The experimental results confirmed that Remix
provides consistent and significant improvements over the previous methods.
- Abstract(参考訳): 深層画像分類器は、トレーニングデータがかなりクラス不均衡である場合、しばしば性能が良くない。
本研究では,mixupの定式化を緩和し,特徴量とラベルの混合要因を解消する新しい正規化手法であるremixを提案する。
具体的には、2つのサンプルを混ぜると、特徴がmixupと同じ方法で混合されるのに対して、Remixは少数派に不当に高い重みを与えることで、少数派に有利なラベルを割り当てる。
そうすることによって、分類器は決定境界を多数派クラスに向け、多数派クラスと少数派クラスの一般化誤差のバランスをとることを学習する。
我々は, クラス不均衡状態下でのミックスアップ, マニホールドミックスアップ, カットミックスなどの最先端の正規化手法について検討し, 提案手法がcifar-10, cifar-100, cinic-10によって構築された不均衡データセット上で, それらの最新技術, 再重み付けおよび再サンプリング技術を大きく上回ることを示した。
iNaturalist 2018では、実世界の大規模不均衡データセット上でRemixを評価した。
実験の結果、remixは以前の方法よりも一貫性があり、大幅な改善が得られた。
関連論文リスト
- Mix from Failure: Confusion-Pairing Mixup for Long-Tailed Recognition [14.009773753739282]
ロングテール画像認識は、人工的な制服ではなく、現実世界のクラス分布を考慮した問題である。
本稿では,マイノリティクラスにおけるサンプルの多様性を高めるために,トレーニングデータセットの強化という,異なる観点からの問題に取り組む。
本手法,すなわち Confusion-Pairing Mixup (CP-Mix) は,モデルの混乱分布を推定し,データ不足問題に対処する。
論文 参考訳(メタデータ) (2024-11-12T08:08:31Z) - SynerMix: Synergistic Mixup Solution for Enhanced Intra-Class Cohesion and Inter-Class Separability in Image Classification [5.86619806485267]
そこで我々はSynerMix-Intraという新しい混合法を提案し,その上にSynerMixという相乗的混合解を導入する。
SynerMix-Intraはクラス内の混合をターゲットとし、クラス内の凝集を促進する。
実験の結果、SynerMixはMixUpとSynerMix-Intraのどちらよりも0.1%から3.43%高い精度を達成しており、平均して1.16%の利益を得ている。
論文 参考訳(メタデータ) (2024-03-21T05:13:12Z) - PowMix: A Versatile Regularizer for Multimodal Sentiment Analysis [71.8946280170493]
本稿では,単相混合型正規化手法の強みを生かした汎用な埋め込み空間正規化器であるPowMixを紹介する。
PowMixはマルチモーダルアーキテクチャの融合段階の前に統合され、テキストとテキストを混合するなどのモダル内混合を容易にし、レギュレータとして機能する。
論文 参考訳(メタデータ) (2023-12-19T17:01:58Z) - Selective Mixup Helps with Distribution Shifts, But Not (Only) because
of Mixup [26.105340203096596]
本研究では,ペアの非ランダム選択がトレーニング分布に影響を及ぼし,混合とは無関係な手段による一般化が向上することを示す。
選択混合法と再サンプリング法という2つの手法の間に新しい等価性を見出した。
論文 参考訳(メタデータ) (2023-05-26T10:56:22Z) - Reweighted Mixup for Subpopulation Shift [63.1315456651771]
サブポピュレーションシフトは、多くの実世界のアプリケーションに存在し、同じサブポピュレーショングループを含むが異なるサブポピュレーション比率を持つトレーニングとテストの分布を指す。
重要度再重み付けは、サブポピュレーションシフトを処理する古典的で効果的な方法である。
我々は、オーバーフィッティング問題を緩和するために、reweighted mixupと呼ばれるシンプルで実用的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-09T03:44:50Z) - C-Mixup: Improving Generalization in Regression [71.10418219781575]
混合アルゴリズムは、一対の例とその対応するラベルを線形補間することによって一般化を改善する。
ラベルの類似度に基づいてサンプリング確率を調整するC-Mixupを提案する。
C-Mixupは6.56%、4.76%、5.82%の改善、タスクの一般化、アウト・オブ・ディストリビューションの堅牢性を実現している。
論文 参考訳(メタデータ) (2022-10-11T20:39:38Z) - RegMixup: Mixup as a Regularizer Can Surprisingly Improve Accuracy and
Out Distribution Robustness [94.69774317059122]
学習目的として使うのではなく、標準のクロスエントロピー損失に対する追加の正則化剤として利用すれば、良好なミックスアップの有効性がさらに向上できることが示される。
この単純な変更は、精度を大幅に改善するだけでなく、Mixupの予測不確実性推定の品質を大幅に改善する。
論文 参考訳(メタデータ) (2022-06-29T09:44:33Z) - Balanced-MixUp for Highly Imbalanced Medical Image Classification [19.338350044289736]
そこで本研究では,MixUp正則化手法に基づくトレーニングデータをサンプリングする新しいメカニズムを提案する。
我々は、高不均衡な網膜画像のデータセットと、胃腸内ビデオフレームの長いテールデータセットを実験した。
論文 参考訳(メタデータ) (2021-09-20T21:31:31Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - An Empirical Study of the Effects of Sample-Mixing Methods for Efficient
Training of Generative Adversarial Networks [0.0]
生成敵対ネットワーク(GAN)のトレーニングは、発電機が高品質のサンプルを提供する前に巨大なイテレーションを必要とすることがよく知られています。
本研究では, この問題を緩和するために, 試料混合法であるMixup, CutMix, SRMixの効果を検討した。
論文 参考訳(メタデータ) (2021-04-08T06:40:23Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。