論文の概要: Mixup Without Hesitation
- arxiv url: http://arxiv.org/abs/2101.04342v1
- Date: Tue, 12 Jan 2021 08:11:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 01:44:48.138560
- Title: Mixup Without Hesitation
- Title(参考訳): 迷わずに混ざり合う
- Authors: Hao Yu, Huanyu Wang, Jianxin Wu
- Abstract要約: 我々は、簡潔で効果的で使いやすいトレーニングアルゴリズムであるMixup Without hesitation (mWh)を提案する。
mWhは、ミックスアップを基本データ拡張に徐々に置き換えることで、探索とエクスプロイトのバランスを良くする。
私たちのコードはオープンソースで、https://github.com/yuhao318318/mwhで利用可能です。
- 参考スコア(独自算出の注目度): 38.801366276601414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mixup linearly interpolates pairs of examples to form new samples, which is
easy to implement and has been shown to be effective in image classification
tasks. However, there are two drawbacks in mixup: one is that more training
epochs are needed to obtain a well-trained model; the other is that mixup
requires tuning a hyper-parameter to gain appropriate capacity but that is a
difficult task. In this paper, we find that mixup constantly explores the
representation space, and inspired by the exploration-exploitation dilemma in
reinforcement learning, we propose mixup Without hesitation (mWh), a concise,
effective, and easy-to-use training algorithm. We show that mWh strikes a good
balance between exploration and exploitation by gradually replacing mixup with
basic data augmentation. It can achieve a strong baseline with less training
time than original mixup and without searching for optimal hyper-parameter,
i.e., mWh acts as mixup without hesitation. mWh can also transfer to CutMix,
and gain consistent improvement on other machine learning and computer vision
tasks such as object detection. Our code is open-source and available at
https://github.com/yuhao318/mwh
- Abstract(参考訳): ミックスアップはサンプルのペアを線形補間して新しいサンプルを作成するが、実装が容易であり、画像分類タスクに有効であることが示されている。
しかし、ミックスアップには2つの欠点がある:1つは、十分に訓練されたモデルを得るために、より多くのトレーニングエポックが必要とされることである。
本稿では,ミックスアップが常に表現空間を探索し,強化学習における探索・探索ジレンマにインスパイアされて,簡潔で効果的で使いやすいトレーニングアルゴリズムであるミックスアップ無湿(mWh)を提案する。
我々は,mWhが基本データ拡張とミックスアップを徐々に置き換えることで,探索と搾取のバランスが良いことを示す。
もともとのミキシングアップよりもトレーニング時間が短く、最適なハイパーパラメーターを探すことなく、すなわちmWhが混成アップとして振る舞うような強いベースラインを実現することができる。
mWhはCutMixに転送することもでき、オブジェクト検出などの他の機械学習やコンピュータビジョンタスクにも一貫した改善が加えられる。
私たちのコードはオープンソースで、https://github.com/yuhao318/mwhで利用可能です。
関連論文リスト
- When does mixup promote local linearity in learned representations? [61.079020647847024]
学習ネットワーク表現における線形性の促進におけるMixupの役割について検討する。
CIFAR-10, CIFAR-100, SVHNなどの視覚データセット上でのMixupの特性について検討する。
論文 参考訳(メタデータ) (2022-10-28T21:27:33Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - SMILE: Self-Distilled MIxup for Efficient Transfer LEarning [42.59451803498095]
本研究では, SMILE-Self-Distilled Mixup for EffIcient Transfer LEarningを提案する。
混合画像を入力として、SMILEはCNN特徴抽出器の出力を正規化し、入力の混合特徴ベクトルから学習する。
トリプルレギュラライザーは、特徴空間とラベル空間の両方で混合効果のバランスをとりながら、前訓練タスクのサンプル間の線形性をバインドします。
論文 参考訳(メタデータ) (2021-03-25T16:02:21Z) - AutoMix: Unveiling the Power of Mixup [34.623943038648164]
サンプル混合ポリシーを適応的に学習するために、識別機能を利用する柔軟性のある一般的な自動混合フレームワークを紹介します。
mixup をプリテキストタスクとして捉え,ミックスサンプル生成とミックスアップ分類という2つのサブプロブレムに分割した。
6つの人気のある分類ベンチマークの実験は、AutoMixが他の主要なミックスアップメソッドを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2021-03-24T07:21:53Z) - MixMo: Mixing Multiple Inputs for Multiple Outputs via Deep Subnetworks [97.08677678499075]
マルチインプットマルチアウトプットディープワークを学ぶための新しいフレームワークであるMixMoを紹介します。
機能、特にCutMixのパッチによるバイナリの混合は、ワークをより強く、より多様なものにすることによって、結果を向上します。
実装が容易で、推論にコストがかかることに加えて、我々のモデルはよりコストの高いデータ拡張深層アンサンブルよりも優れています。
論文 参考訳(メタデータ) (2021-03-10T15:31:02Z) - Mixup-Transformer: Dynamic Data Augmentation for NLP Tasks [75.69896269357005]
Mixupは、入力例と対応するラベルを線形に補間する最新のデータ拡張技術である。
本稿では,自然言語処理タスクにmixupを適用する方法について検討する。
我々は、様々なNLPタスクに対して、mixup-transformerと呼ばれる、トランスフォーマーベースの事前学習アーキテクチャにmixupを組み込んだ。
論文 参考訳(メタデータ) (2020-10-05T23:37:30Z) - Puzzle Mix: Exploiting Saliency and Local Statistics for Optimal Mixup [19.680580983094323]
Puzzle Mixは、サリエンシ情報と自然事例の基盤となる統計を明示的に活用するための混合手法である。
実験の結果,Puzzle Mixはアートの一般化と対向ロバスト性を実現していることがわかった。
論文 参考訳(メタデータ) (2020-09-15T10:10:23Z) - XMixup: Efficient Transfer Learning with Auxiliary Samples by
Cross-domain Mixup [60.07531696857743]
クロスドメイン・ミックスアップ(XMixup)は、深層移動学習のためのマルチタスクパラダイムを改善する。
XMixupはソースデータセットから補助サンプルを選択し、単純なミックスアップ戦略を通じてトレーニングサンプルを拡張する。
実験の結果、XMixupは平均で1.9%精度が向上した。
論文 参考訳(メタデータ) (2020-07-20T16:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。