論文の概要: Mixup Augmentation with Multiple Interpolations
- arxiv url: http://arxiv.org/abs/2406.01417v1
- Date: Mon, 3 Jun 2024 15:16:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 22:30:12.302399
- Title: Mixup Augmentation with Multiple Interpolations
- Title(参考訳): 多重補間による混合増幅
- Authors: Lifeng Shen, Jincheng Yu, Hansi Yang, James T. Kwok,
- Abstract要約: サンプルペアから複数の勾配を生成するマルチミックス(multi-mix)という単純な拡張を提案する。
生成されたサンプルの順序を順序付けすることで、マルチミックスは、標準的なミックスアップよりもトレーニングプロセスのガイドに役立てることができる。
- 参考スコア(独自算出の注目度): 26.46413903248954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mixup and its variants form a popular class of data augmentation techniques.Using a random sample pair, it generates a new sample by linear interpolation of the inputs and labels. However, generating only one single interpolation may limit its augmentation ability. In this paper, we propose a simple yet effective extension called multi-mix, which generates multiple interpolations from a sample pair. With an ordered sequence of generated samples, multi-mix can better guide the training process than standard mixup. Moreover, theoretically, this can also reduce the stochastic gradient variance. Extensive experiments on a number of synthetic and large-scale data sets demonstrate that multi-mix outperforms various mixup variants and non-mixup-based baselines in terms of generalization, robustness, and calibration.
- Abstract(参考訳): 乱数サンプルペアを用いて、入力とラベルの線形補間により新しいサンプルを生成する。
しかし、1つの補間しか生成できないため、増強能力は制限される。
本稿では,サンプルペアから複数の補間を生成するマルチミックスという,シンプルで効果的な拡張を提案する。
生成されたサンプルの順序を順序付けすることで、マルチミックスは、標準的なミックスアップよりもトレーニングプロセスのガイドに役立てることができる。
さらに理論的には、これは確率勾配の分散を減少させることもできる。
多数の合成および大規模データセットに対する広範囲な実験により、マルチミックスは、一般化、堅牢性、キャリブレーションの点で様々なミックスアップ変種および非ミックスアップベースラインより優れていることが示された。
関連論文リスト
- PowMix: A Versatile Regularizer for Multimodal Sentiment Analysis [71.8946280170493]
本稿では,単相混合型正規化手法の強みを生かした汎用な埋め込み空間正規化器であるPowMixを紹介する。
PowMixはマルチモーダルアーキテクチャの融合段階の前に統合され、テキストとテキストを混合するなどのモダル内混合を容易にし、レギュレータとして機能する。
論文 参考訳(メタデータ) (2023-12-19T17:01:58Z) - Adversarial AutoMixup [50.1874436169571]
本稿では,AdAutomixupを提案する。
画像分類のための堅牢な分類器を訓練するために、挑戦的なサンプルを生成する。
本手法は, 様々な分類シナリオにおいて, 技術状況に優れる。
論文 参考訳(メタデータ) (2023-12-19T08:55:00Z) - Improving Gradient-guided Nested Sampling for Posterior Inference [47.08481529384556]
本稿では,パフォーマンス,汎用的勾配誘導型ネストサンプリングアルゴリズム,$tt GGNS$を提案する。
後部分布から大量の高品質なサンプルを得るために,ネストサンプリングと生成フローネットワークを組み合わせる可能性を示す。
論文 参考訳(メタデータ) (2023-12-06T21:09:18Z) - Infinite Class Mixup [26.48101652432502]
Mixupは、トレーニングペアのインプットとラベルを補間することで、追加のサンプルが拡張されるディープネットワークのトレーニング戦略である。
本論文は,各混合ペアのラベルを混合する代わりに,分類器を直接混合することにより,この問題に対処することを目的とする。
Infinite Class Mixupは標準のMixupやRegMixupやRemixなど、バランスの取れた、長い尾のついた、データに制約のあるベンチマークにおいて、パフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-05-17T15:27:35Z) - MixupE: Understanding and Improving Mixup from Directional Derivative
Perspective [86.06981860668424]
理論上は、バニラ・ミックスアップよりも優れた一般化性能を実現するために、Mixupの改良版を提案する。
提案手法は,様々なアーキテクチャを用いて,複数のデータセットにまたがるMixupを改善した。
論文 参考訳(メタデータ) (2022-12-27T07:03:52Z) - C-Mixup: Improving Generalization in Regression [71.10418219781575]
混合アルゴリズムは、一対の例とその対応するラベルを線形補間することによって一般化を改善する。
ラベルの類似度に基づいてサンプリング確率を調整するC-Mixupを提案する。
C-Mixupは6.56%、4.76%、5.82%の改善、タスクの一般化、アウト・オブ・ディストリビューションの堅牢性を実現している。
論文 参考訳(メタデータ) (2022-10-11T20:39:38Z) - Global Mixup: Eliminating Ambiguity with Clustering [18.876583942942144]
我々はtextbfGlobal Mixup というグローバルクラスタリング関係に基づく新しい拡張手法を提案する。
実験によると、Global Mixupはこれまでの最先端のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2022-06-06T16:42:22Z) - Multi-Sample $\zeta$-mixup: Richer, More Realistic Synthetic Samples
from a $p$-Series Interpolant [16.65329510916639]
証明可能かつ明白に望ましい性質を持つ混合の一般化である$zeta$-mixupを提案する。
我々は,$zeta$-mixupの実装がミックスアップよりも高速であることを示し,制御された合成および24の実世界の自然・医療画像分類データセットにおいて,$zeta$-mixupがミックスアップおよび従来のデータ拡張技術より優れていることを示す。
論文 参考訳(メタデータ) (2022-04-07T09:41:09Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - Learning Mixtures of Permutations: Groups of Pairwise Comparisons and
Combinatorial Method of Moments [8.691957530860675]
Mallows混合モデルについて検討した。
高次元設定では、$n$要素上の置換のMallows混合を学習する最適時間アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-14T23:11:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。