論文の概要: TransformMix: Learning Transformation and Mixing Strategies from Data
- arxiv url: http://arxiv.org/abs/2403.12429v1
- Date: Tue, 19 Mar 2024 04:36:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 15:22:07.557436
- Title: TransformMix: Learning Transformation and Mixing Strategies from Data
- Title(参考訳): TransformMix:データから学習形質転換と混合戦略
- Authors: Tsz-Him Cheung, Dit-Yan Yeung,
- Abstract要約: 我々は、データからより良い変換と拡張戦略を混合するための自動アプローチであるTransformMixを提案する。
本稿では,トランスフォーメーション学習,分類,オブジェクト検出,知識蒸留設定におけるTransformMixの有効性を示す。
- 参考スコア(独自算出の注目度): 20.79680733590554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data augmentation improves the generalization power of deep learning models by synthesizing more training samples. Sample-mixing is a popular data augmentation approach that creates additional data by combining existing samples. Recent sample-mixing methods, like Mixup and Cutmix, adopt simple mixing operations to blend multiple inputs. Although such a heuristic approach shows certain performance gains in some computer vision tasks, it mixes the images blindly and does not adapt to different datasets automatically. A mixing strategy that is effective for a particular dataset does not often generalize well to other datasets. If not properly configured, the methods may create misleading mixed images, which jeopardize the effectiveness of sample-mixing augmentations. In this work, we propose an automated approach, TransformMix, to learn better transformation and mixing augmentation strategies from data. In particular, TransformMix applies learned transformations and mixing masks to create compelling mixed images that contain correct and important information for the target tasks. We demonstrate the effectiveness of TransformMix on multiple datasets in transfer learning, classification, object detection, and knowledge distillation settings. Experimental results show that our method achieves better performance as well as efficiency when compared with strong sample-mixing baselines.
- Abstract(参考訳): データ拡張は、より多くのトレーニングサンプルを合成することによって、ディープラーニングモデルの一般化能力を向上させる。
サンプルミキシングは、既存のサンプルを組み合わせることで追加データを生成する一般的なデータ拡張アプローチである。
MixupやCutmixのような最近のサンプルミキシング手法では、複数の入力をブレンドするための単純な混合操作が採用されている。
このようなヒューリスティックなアプローチは、一部のコンピュータビジョンタスクで特定のパフォーマンス向上を示すが、画像は盲目的に混合され、異なるデータセットに自動的に適応しない。
特定のデータセットに有効なミキシング戦略は、他のデータセットによく当てはまらないことが多い。
適切に設定されていない場合、この手法はミスリード混合画像を生成し、サンプル混合増強の有効性を損なう可能性がある。
本研究では,データからより優れた変換と拡張戦略を混合するための自動アプローチであるTransformMixを提案する。
特にTransformMixは、学習した変換と混合マスクを適用して、ターゲットタスクの正確かつ重要な情報を含む魅力的な混合画像を生成する。
本稿では,トランスフォーメーション学習,分類,オブジェクト検出,知識蒸留設定におけるTransformMixの有効性を示す。
実験結果から,本手法は試料混合ベースラインに比べて優れた性能と効率を達成できることがわかった。
関連論文リスト
- Adversarial AutoMixup [50.1874436169571]
本稿では,AdAutomixupを提案する。
画像分類のための堅牢な分類器を訓練するために、挑戦的なサンプルを生成する。
本手法は, 様々な分類シナリオにおいて, 技術状況に優れる。
論文 参考訳(メタデータ) (2023-12-19T08:55:00Z) - MiAMix: Enhancing Image Classification through a Multi-stage Augmented
Mixed Sample Data Augmentation Method [0.5919433278490629]
マルチステージAugmented Mixupの略であるMiAMixという新しいミックスアップ手法を提案する。
MiAMixは、画像強化をミックスアップフレームワークに統合し、複数の多様化ミキシング法を同時に利用し、ミキシングマスク増強法をランダムに選択することでミキシング方法を改善する。
近年の手法では、サリエンシ情報を利用し、MiAMixは計算効率も向上し、オーバーヘッドを減らし、既存のトレーニングパイプラインに容易に統合できるようになっている。
論文 参考訳(メタデータ) (2023-08-05T06:29:46Z) - MixupE: Understanding and Improving Mixup from Directional Derivative
Perspective [86.06981860668424]
理論上は、バニラ・ミックスアップよりも優れた一般化性能を実現するために、Mixupの改良版を提案する。
提案手法は,様々なアーキテクチャを用いて,複数のデータセットにまたがるMixupを改善した。
論文 参考訳(メタデータ) (2022-12-27T07:03:52Z) - DoubleMix: Simple Interpolation-Based Data Augmentation for Text
Classification [56.817386699291305]
本稿では,DoubleMixと呼ばれる単純なデータ拡張手法を提案する。
DoubleMixはまず、トレーニングデータごとにいくつかの摂動サンプルを生成する。
次に、摂動データと元のデータを使って、隠れたニューラルネットワークの空間で2段階のステップを実行する。
論文 参考訳(メタデータ) (2022-09-12T15:01:04Z) - RandoMix: A mixed sample data augmentation method with multiple mixed
modes [12.466162659083697]
RandoMixは、堅牢性と多様性の課題に対処するために設計された、混合サンプルデータ拡張手法である。
我々は,CIFAR-10/100,Tiny-ImageNet,ImageNet,Google Speech Commandsなど,さまざまなデータセットに対するRandoMixの有効性を評価する。
論文 参考訳(メタデータ) (2022-05-18T05:31:36Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - ResizeMix: Mixing Data with Preserved Object Information and True Labels [57.00554495298033]
本研究は,データ混合におけるサリエンシー情報の重要性について検討し,サリエンシー情報は増補性能向上のために必要ではないことを見出した。
本稿では,より効率的で実装が容易なresizemix法を提案する。
論文 参考訳(メタデータ) (2020-12-21T03:43:13Z) - Mixup-Transformer: Dynamic Data Augmentation for NLP Tasks [75.69896269357005]
Mixupは、入力例と対応するラベルを線形に補間する最新のデータ拡張技術である。
本稿では,自然言語処理タスクにmixupを適用する方法について検討する。
我々は、様々なNLPタスクに対して、mixup-transformerと呼ばれる、トランスフォーマーベースの事前学習アーキテクチャにmixupを組み込んだ。
論文 参考訳(メタデータ) (2020-10-05T23:37:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。