論文の概要: Decoupled Mixup for Data-efficient Learning
- arxiv url: http://arxiv.org/abs/2203.10761v1
- Date: Mon, 21 Mar 2022 07:12:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 14:12:49.978162
- Title: Decoupled Mixup for Data-efficient Learning
- Title(参考訳): データ効率学習のための分離混合処理
- Authors: Zicheng Liu, Siyuan Li, Ge Wang, Cheng Tan, Lirong Wu, Stan Z. Li
- Abstract要約: 本稿では, 差別的特徴を適応的にマイニングし, 滑らかさを損なうことなく, 分離混合損失(DM損失)を提案する。
DMは、計算オーバーヘッドの重い処理を回避しつつ、動的手法で同等のパフォーマンスを実現することができる。
- 参考スコア(独自算出の注目度): 49.50661785259908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mixup is an efficient data augmentation approach that improves the
generalization of neural networks by smoothing the decision boundary with mixed
data. Recently, dynamic mixup methods improve previous static policies (e.g.,
linear interpolation) by maximizing discriminative regions or maintaining the
salient objects in mixed samples. We notice that The mixed samples from dynamic
policies are more separable than the static ones while preventing models from
overfitting. Inspired by this finding, we first argue that there exists an
over-smoothing issue in the mixup objective, which focuses on regression the
mixing ratio instead of identifying discriminative features. We are therefore
prompted to propose a decoupled mixup (DM) loss that can adaptively mine
discriminative features without losing smoothness. DM enables static mixup
methods to achieve comparable performance with dynamic methods while avoiding
heavy computational overhead. This also leads to an interesting objective
design problem for mixup training that we need to focus not only on smoothing
the decision boundaries but also on identifying discriminative features.
Extensive experiments on supervised and semi-supervised learning benchmarks
across seven classification datasets validate the effectiveness of DM by
equipping with various mixup methods.
- Abstract(参考訳): Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
近年,動的混合手法により,従来の静的ポリシ(線形補間など)が改善され,識別領域を最大化したり,試料中の有価物を維持したりしている。
動的ポリシーからの混合サンプルは静的なものよりも分離可能であり、モデルが過度に適合することを防ぐ。
この発見に触発されて、私たちはまず、差別的特徴を識別する代わりに混合比の回帰に焦点を当てた混合目標に過度に平滑な問題が存在すると論じる。
そこで我々は, 差別的特徴をスムーズさを損なうことなく, 適応的にマイニングできる分離混合損失(DM)を提案する。
DMは、計算オーバーヘッドの重い処理を回避しつつ、動的手法で同等のパフォーマンスを実現する。
これはまた、ミキシングトレーニングにおいて、決定境界の平滑化だけでなく、差別的特徴の識別にも焦点を合わせる必要がある興味深い客観的設計問題につながります。
7つの分類データセットにまたがる教師付きおよび半教師付き学習ベンチマークに関する広範囲な実験は、様々な混合手法を用いてDMの有効性を検証する。
関連論文リスト
- TransformMix: Learning Transformation and Mixing Strategies from Data [20.79680733590554]
我々は、データからより良い変換と拡張戦略を混合するための自動アプローチであるTransformMixを提案する。
本稿では,トランスフォーメーション学習,分類,オブジェクト検出,知識蒸留設定におけるTransformMixの有効性を示す。
論文 参考訳(メタデータ) (2024-03-19T04:36:41Z) - Fast Semisupervised Unmixing Using Nonconvex Optimization [80.11512905623417]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - Adversarial AutoMixup [50.1874436169571]
本稿では,AdAutomixupを提案する。
画像分類のための堅牢な分類器を訓練するために、挑戦的なサンプルを生成する。
本手法は, 様々な分類シナリオにおいて, 技術状況に優れる。
論文 参考訳(メタデータ) (2023-12-19T08:55:00Z) - Tailoring Mixup to Data for Calibration [12.050401897136501]
Mixupはキャリブレーションと予測の不確実性を改善する技術である。
この研究では、データ間の距離が混合されるにつれて、多様体の侵入の可能性が増加することを論じる。
本研究では, 混合する試料間の類似度に応じて, 係数の基底分布を動的に変化させることを提案する。
論文 参考訳(メタデータ) (2023-11-02T17:48:28Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - C-Mixup: Improving Generalization in Regression [71.10418219781575]
混合アルゴリズムは、一対の例とその対応するラベルを線形補間することによって一般化を改善する。
ラベルの類似度に基づいてサンプリング確率を調整するC-Mixupを提案する。
C-Mixupは6.56%、4.76%、5.82%の改善、タスクの一般化、アウト・オブ・ディストリビューションの堅牢性を実現している。
論文 参考訳(メタデータ) (2022-10-11T20:39:38Z) - DoubleMix: Simple Interpolation-Based Data Augmentation for Text
Classification [56.817386699291305]
本稿では,DoubleMixと呼ばれる単純なデータ拡張手法を提案する。
DoubleMixはまず、トレーニングデータごとにいくつかの摂動サンプルを生成する。
次に、摂動データと元のデータを使って、隠れたニューラルネットワークの空間で2段階のステップを実行する。
論文 参考訳(メタデータ) (2022-09-12T15:01:04Z) - Co-Mixup: Saliency Guided Joint Mixup with Supermodular Diversity [15.780905917870427]
バッチ混成データに対する新たな視点を提案し, バッチ混成データの最適構築を定式化する。
また,各ミニバッチ毎に効率的な混合を行うために,効率的なモジュール近似に基づく反復的部分モジュラー計算アルゴリズムを提案する。
実験により, 提案手法は, 技術一般化, キャリブレーション, および弱教師付き局所化結果の状態を達成できることを示した。
論文 参考訳(メタデータ) (2021-02-05T09:12:02Z) - Puzzle Mix: Exploiting Saliency and Local Statistics for Optimal Mixup [19.680580983094323]
Puzzle Mixは、サリエンシ情報と自然事例の基盤となる統計を明示的に活用するための混合手法である。
実験の結果,Puzzle Mixはアートの一般化と対向ロバスト性を実現していることがわかった。
論文 参考訳(メタデータ) (2020-09-15T10:10:23Z) - MixMOOD: A systematic approach to class distribution mismatch in
semi-supervised learning using deep dataset dissimilarity measures [13.823764245165792]
MixMOODは、MixMatchを用いた半教師付きディープラーニング(SSDL)におけるクラス分布ミスマッチの効果を緩和するための体系的なアプローチである。
まず,90種類の分散ミスマッチシナリオにおいて,MixMatch精度の感度を解析した。
第2部では,ラベル付きデータセットと非ラベル付きデータセットを比較するために,DeDiM(Deep dataset Dissimilarity measures)と呼ばれる効率的かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2020-06-14T01:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。