論文の概要: RandomMix: A mixed sample data augmentation method with multiple mixed
modes
- arxiv url: http://arxiv.org/abs/2205.08728v1
- Date: Wed, 18 May 2022 05:31:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 13:01:39.434149
- Title: RandomMix: A mixed sample data augmentation method with multiple mixed
modes
- Title(参考訳): randommix:複数の混合モードを持つ混合サンプルデータ拡張法
- Authors: Xiaoliang Liu, Furao Shen, Jian Zhao, and Changhai Nie
- Abstract要約: 混合サンプルデータ拡張は多くの注目を集め、大きな成功を収めています。
提案手法であるRandomMixは,ニューラルネットワークの一般化能力と性能を高めるために,混合サンプルの多様性を主に向上させる。
CIFAR-10/100、Tiny-ImageNet、ImageNet、Google Speech Commandsデータセットの実験では、RandomMixは他の最先端の混合サンプルデータ拡張方法よりも優れたパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 9.378682070712317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation is a very practical technique that can be used to improve
the generalization ability of neural networks and prevent overfitting.
Recently, mixed sample data augmentation has received a lot of attention and
achieved great success. In order to enhance the performance of mixed sample
data augmentation, a series of recent works are devoted to obtaining and
analyzing the salient regions of the image, and using the saliency area to
guide the image mixing. However, obtaining the salient information of an image
requires a lot of extra calculations. Different from improving performance
through saliency analysis, our proposed method RandomMix mainly increases the
diversity of the mixed sample to enhance the generalization ability and
performance of neural networks. Moreover, RandomMix can improve the robustness
of the model, does not require too much additional calculation, and is easy to
insert into the training pipeline. Finally, experiments on the CIFAR-10/100,
Tiny-ImageNet, ImageNet, and Google Speech Commands datasets demonstrate that
RandomMix achieves better performance than other state-of-the-art mixed sample
data augmentation methods.
- Abstract(参考訳): データ拡張は、ニューラルネットワークの一般化能力の向上と過剰フィッティングの防止に使用できる、非常に実用的な技術である。
近年,サンプルデータの混合化が注目され,大きな成功を収めている。
混合サンプルデータ拡張の性能を向上させるために,最近の一連の研究は,画像の高度領域の取得と解析に費やされ,画像混合を導くためにサリエンシー領域を用いている。
しかし、画像のサルエント情報を取得するには、多くの余分な計算が必要となる。
提案手法は,サリエンシ解析による性能向上と異なり,ニューラルネットワークの一般化能力と性能を向上させるために,主に混合サンプルの多様性を高める。
さらに、randommixはモデルの堅牢性を改善し、過剰な計算を必要とせず、トレーニングパイプラインへの挿入も容易である。
最後に、CIFAR-10/100、Tiny-ImageNet、ImageNet、Google Speech Commandsデータセットの実験は、RandomMixが他の最先端の混合サンプルデータ拡張方法よりも優れたパフォーマンスを達成することを示した。
関連論文リスト
- A Survey on Mixup Augmentations and Beyond [59.578288906956736]
選択したサンプルと対応するラベルを凸的に組み合わせた混合および関連データ混合手法が広く採用されている。
本調査では, 基礎混合法とその応用について概観する。
論文 参考訳(メタデータ) (2024-09-08T19:32:22Z) - RC-Mixup: A Data Augmentation Strategy against Noisy Data for Regression Tasks [27.247270530020664]
本研究では,ノイズの多いデータの存在下での回帰作業におけるロバストなデータ拡張の問題について検討する。
C-Mixupは、レグレッションパフォーマンスを改善するためにラベル距離に基づいてサンプルを混合する、より選択的である。
本稿では,C-Mixupとマルチラウンドロバストな学習手法を密接に統合し,シナジスティックな効果を示すRC-Mixupを提案する。
論文 参考訳(メタデータ) (2024-05-28T08:02:42Z) - Data Mixing Laws: Optimizing Data Mixtures by Predicting Language Modeling Performance [55.872926690722714]
本研究では,関数形式の混合比に関するモデル性能の予測可能性について検討する。
トレーニングステップのスケーリング法則,モデルサイズ,データ混合法則のネスト利用を提案する。
提案手法は,RedPajamaにおける100Bトークンをトレーニングした1Bモデルのトレーニング混合物を効果的に最適化する。
論文 参考訳(メタデータ) (2024-03-25T17:14:00Z) - TransformMix: Learning Transformation and Mixing Strategies from Data [20.79680733590554]
我々は、データからより良い変換と拡張戦略を混合するための自動アプローチであるTransformMixを提案する。
本稿では,トランスフォーメーション学習,分類,オブジェクト検出,知識蒸留設定におけるTransformMixの有効性を示す。
論文 参考訳(メタデータ) (2024-03-19T04:36:41Z) - PowMix: A Versatile Regularizer for Multimodal Sentiment Analysis [71.8946280170493]
本稿では,単相混合型正規化手法の強みを生かした汎用な埋め込み空間正規化器であるPowMixを紹介する。
PowMixはマルチモーダルアーキテクチャの融合段階の前に統合され、テキストとテキストを混合するなどのモダル内混合を容易にし、レギュレータとして機能する。
論文 参考訳(メタデータ) (2023-12-19T17:01:58Z) - MiAMix: Enhancing Image Classification through a Multi-stage Augmented
Mixed Sample Data Augmentation Method [0.5919433278490629]
マルチステージAugmented Mixupの略であるMiAMixという新しいミックスアップ手法を提案する。
MiAMixは、画像強化をミックスアップフレームワークに統合し、複数の多様化ミキシング法を同時に利用し、ミキシングマスク増強法をランダムに選択することでミキシング方法を改善する。
近年の手法では、サリエンシ情報を利用し、MiAMixは計算効率も向上し、オーバーヘッドを減らし、既存のトレーニングパイプラインに容易に統合できるようになっている。
論文 参考訳(メタデータ) (2023-08-05T06:29:46Z) - DoubleMix: Simple Interpolation-Based Data Augmentation for Text
Classification [56.817386699291305]
本稿では,DoubleMixと呼ばれる単純なデータ拡張手法を提案する。
DoubleMixはまず、トレーニングデータごとにいくつかの摂動サンプルを生成する。
次に、摂動データと元のデータを使って、隠れたニューラルネットワークの空間で2段階のステップを実行する。
論文 参考訳(メタデータ) (2022-09-12T15:01:04Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - ReMix: Towards Image-to-Image Translation with Limited Data [154.71724970593036]
本稿では,この問題に対処するためのデータ拡張手法(ReMix)を提案する。
特徴レベルでのトレーニングサンプルを補間し、サンプル間の知覚的関係に基づく新しいコンテンツ損失を提案します。
提案手法は, 生成のあいまいさを効果的に低減し, コンテンツ保存結果を生成する。
論文 参考訳(メタデータ) (2021-03-31T06:24:10Z) - MixMix: All You Need for Data-Free Compression Are Feature and Data
Mixing [30.14401315979937]
一般化可能性と不正確な逆転の難しさを克服するために、MixMixを提案する。
理論的および経験的両面からMixMixの有効性を実証する。
MixMixは、既存のデータフリー圧縮作業と比較して、量子化とプルーニングで最大4%と20%の精度アップリフトを達成する。
論文 参考訳(メタデータ) (2020-11-19T15:33:43Z) - FMix: Enhancing Mixed Sample Data Augmentation [5.820517596386667]
近年,Mixed Sample Data Augmentation (MSDA) が注目されている。
ここでは、MixUpがCutMixのように学習した関数を歪めていることを示す。
低周波画像にしきい値を適用したランダムなバイナリマスクを用いたMSDAであるFMixを提案する。
論文 参考訳(メタデータ) (2020-02-27T11:46:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。