論文の概要: RandoMix: A mixed sample data augmentation method with multiple mixed
modes
- arxiv url: http://arxiv.org/abs/2205.08728v2
- Date: Thu, 30 Nov 2023 05:32:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 21:06:32.607323
- Title: RandoMix: A mixed sample data augmentation method with multiple mixed
modes
- Title(参考訳): RandoMix:多重混合モードを用いた混合サンプルデータ拡張法
- Authors: Xiaoliang Liu, Furao Shen, Jian Zhao, and Changhai Nie
- Abstract要約: RandoMixは、堅牢性と多様性の課題に対処するために設計された、混合サンプルデータ拡張手法である。
我々は,CIFAR-10/100,Tiny-ImageNet,ImageNet,Google Speech Commandsなど,さまざまなデータセットに対するRandoMixの有効性を評価する。
- 参考スコア(独自算出の注目度): 12.466162659083697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation plays a crucial role in enhancing the robustness and
performance of machine learning models across various domains. In this study,
we introduce a novel mixed-sample data augmentation method called RandoMix.
RandoMix is specifically designed to simultaneously address robustness and
diversity challenges. It leverages a combination of linear and mask-mixed
modes, introducing flexibility in candidate selection and weight adjustments.
We evaluate the effectiveness of RandoMix on diverse datasets, including
CIFAR-10/100, Tiny-ImageNet, ImageNet, and Google Speech Commands. Our results
demonstrate its superior performance compared to existing techniques such as
Mixup, CutMix, Fmix, and ResizeMix. Notably, RandoMix excels in enhancing model
robustness against adversarial noise, natural noise, and sample occlusion. The
comprehensive experimental results and insights into parameter tuning
underscore the potential of RandoMix as a versatile and effective data
augmentation method. Moreover, it seamlessly integrates into the training
pipeline.
- Abstract(参考訳): データ拡張は、さまざまなドメインにわたる機械学習モデルの堅牢性とパフォーマンスを高める上で重要な役割を果たす。
本研究ではRandoMixと呼ばれる新しい混合サンプルデータ拡張手法を提案する。
RandoMixは、堅牢性と多様性の課題に同時に対処するように設計されている。
線形モードとマスク混合モードの組み合わせを活用し、候補選択の柔軟性と重量調整を導入する。
我々は、CIFAR-10/100、Tiny-ImageNet、ImageNet、Google Speech Commandsなど、さまざまなデータセットに対するRandoMixの有効性を評価する。
この結果は、Mixup、CutMix、Fmix、ResizeMixといった既存の技術と比較して優れた性能を示している。
特にRandoMixは、対向ノイズ、自然ノイズ、サンプル閉塞に対するモデル堅牢性の向上に長けている。
パラメータチューニングに関する総合的な実験結果と洞察は、RandoMixを多目的かつ効果的なデータ拡張法としての可能性を示している。
さらに、トレーニングパイプラインにシームレスに統合される。
関連論文リスト
- RC-Mixup: A Data Augmentation Strategy against Noisy Data for Regression Tasks [27.247270530020664]
本研究では,ノイズの多いデータの存在下での回帰作業におけるロバストなデータ拡張の問題について検討する。
C-Mixupは、レグレッションパフォーマンスを改善するためにラベル距離に基づいてサンプルを混合する、より選択的である。
本稿では,C-Mixupとマルチラウンドロバストな学習手法を密接に統合し,シナジスティックな効果を示すRC-Mixupを提案する。
論文 参考訳(メタデータ) (2024-05-28T08:02:42Z) - Data Mixing Laws: Optimizing Data Mixtures by Predicting Language Modeling Performance [55.872926690722714]
本研究では,関数形式の混合比に関するモデル性能の予測可能性について検討する。
トレーニングステップのスケーリング法則,モデルサイズ,データ混合法則のネスト利用を提案する。
提案手法は,RedPajamaにおける100Bトークンをトレーニングした1Bモデルのトレーニング混合物を効果的に最適化する。
論文 参考訳(メタデータ) (2024-03-25T17:14:00Z) - TransformMix: Learning Transformation and Mixing Strategies from Data [20.79680733590554]
我々は、データからより良い変換と拡張戦略を混合するための自動アプローチであるTransformMixを提案する。
本稿では,トランスフォーメーション学習,分類,オブジェクト検出,知識蒸留設定におけるTransformMixの有効性を示す。
論文 参考訳(メタデータ) (2024-03-19T04:36:41Z) - PowMix: A Versatile Regularizer for Multimodal Sentiment Analysis [71.8946280170493]
本稿では,単相混合型正規化手法の強みを生かした汎用な埋め込み空間正規化器であるPowMixを紹介する。
PowMixはマルチモーダルアーキテクチャの融合段階の前に統合され、テキストとテキストを混合するなどのモダル内混合を容易にし、レギュレータとして機能する。
論文 参考訳(メタデータ) (2023-12-19T17:01:58Z) - MiAMix: Enhancing Image Classification through a Multi-stage Augmented
Mixed Sample Data Augmentation Method [0.5919433278490629]
マルチステージAugmented Mixupの略であるMiAMixという新しいミックスアップ手法を提案する。
MiAMixは、画像強化をミックスアップフレームワークに統合し、複数の多様化ミキシング法を同時に利用し、ミキシングマスク増強法をランダムに選択することでミキシング方法を改善する。
近年の手法では、サリエンシ情報を利用し、MiAMixは計算効率も向上し、オーバーヘッドを減らし、既存のトレーニングパイプラインに容易に統合できるようになっている。
論文 参考訳(メタデータ) (2023-08-05T06:29:46Z) - DoubleMix: Simple Interpolation-Based Data Augmentation for Text
Classification [56.817386699291305]
本稿では,DoubleMixと呼ばれる単純なデータ拡張手法を提案する。
DoubleMixはまず、トレーニングデータごとにいくつかの摂動サンプルを生成する。
次に、摂動データと元のデータを使って、隠れたニューラルネットワークの空間で2段階のステップを実行する。
論文 参考訳(メタデータ) (2022-09-12T15:01:04Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - Federated Mixture of Experts [94.25278695272874]
FedMixは特別なモデルのアンサンブルをトレーニングできるフレームワークです。
類似したデータ特性を持つユーザが同じメンバーを選択して統計的強度を共有することを示す。
論文 参考訳(メタデータ) (2021-07-14T14:15:24Z) - ReMix: Towards Image-to-Image Translation with Limited Data [154.71724970593036]
本稿では,この問題に対処するためのデータ拡張手法(ReMix)を提案する。
特徴レベルでのトレーニングサンプルを補間し、サンプル間の知覚的関係に基づく新しいコンテンツ損失を提案します。
提案手法は, 生成のあいまいさを効果的に低減し, コンテンツ保存結果を生成する。
論文 参考訳(メタデータ) (2021-03-31T06:24:10Z) - MixMix: All You Need for Data-Free Compression Are Feature and Data
Mixing [30.14401315979937]
一般化可能性と不正確な逆転の難しさを克服するために、MixMixを提案する。
理論的および経験的両面からMixMixの有効性を実証する。
MixMixは、既存のデータフリー圧縮作業と比較して、量子化とプルーニングで最大4%と20%の精度アップリフトを達成する。
論文 参考訳(メタデータ) (2020-11-19T15:33:43Z) - FMix: Enhancing Mixed Sample Data Augmentation [5.820517596386667]
近年,Mixed Sample Data Augmentation (MSDA) が注目されている。
ここでは、MixUpがCutMixのように学習した関数を歪めていることを示す。
低周波画像にしきい値を適用したランダムなバイナリマスクを用いたMSDAであるFMixを提案する。
論文 参考訳(メタデータ) (2020-02-27T11:46:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。