論文の概要: A Survey of Mix-based Data Augmentation: Taxonomy, Methods,
Applications, and Explainability
- arxiv url: http://arxiv.org/abs/2212.10888v1
- Date: Wed, 21 Dec 2022 09:58:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 13:34:26.686631
- Title: A Survey of Mix-based Data Augmentation: Taxonomy, Methods,
Applications, and Explainability
- Title(参考訳): 混合データ拡張に関する調査研究:分類学,方法,応用,説明可能性
- Authors: Chengtai Cao, Fan Zhou, Yurou Dai, and Jianping Wang
- Abstract要約: データ拡張(DA)は、現代の機械学習やディープニューラルネットワークでは不可欠である。
本研究では、MixDA (Mix-based Data Augmentation) の小さなが必須のサブセットについてレビューする。
単一サンプルの操作やドメイン知識を必要とする従来のDAアプローチとは異なり、MixDAはより幅広い新しいデータを作成するのに一般的である。
- 参考スコア(独自算出の注目度): 13.289769314040282
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation (DA) is indispensable in modern machine learning and deep
neural networks. The basic idea of DA is to construct new training data to
improve the model's generalization by adding slightly disturbed versions of
existing data or synthesizing new data. In this work, we review a small but
essential subset of DA -- Mix-based Data Augmentation (MixDA) that generates
novel samples by mixing multiple examples. Unlike conventional DA approaches
based on a single-sample operation or requiring domain knowledge, MixDA is more
general in creating a broad spectrum of new data and has received increasing
attention in the community. We begin with proposing a new taxonomy classifying
MixDA into, Mixup-based, Cutmix-based, and hybrid approaches according to a
hierarchical view of the data mix. Various MixDA techniques are then
comprehensively reviewed in a more fine-grained way. Owing to its
generalization, MixDA has penetrated a variety of applications which are also
completely reviewed in this work. We also examine why MixDA works from
different aspects of improving model performance, generalization, and
calibration while explaining the model behavior based on the properties of
MixDA. Finally, we recapitulate the critical findings and fundamental
challenges of current MixDA studies, and outline the potential directions for
future works. Different from previous related works that summarize the DA
approaches in a specific domain (e.g., images or natural language processing)
or only review a part of MixDA studies, we are the first to provide a
systematical survey of MixDA in terms of its taxonomy, methodology,
applications, and explainability. This work can serve as a roadmap to MixDA
techniques and application reviews while providing promising directions for
researchers interested in this exciting area.
- Abstract(参考訳): データ拡張(DA)は、現代の機械学習やディープニューラルネットワークでは不可欠である。
daの基本的な考え方は、既存のデータのわずかに乱れたバージョンを追加したり、新しいデータを合成することでモデルの一般化を改善するために、新しいトレーニングデータを構築することである。
本稿では、MixDA(Mix-based Data Augmentation)の小さな部分集合を概説し、複数のサンプルを混合して新しいサンプルを生成する。
単一サンプル操作やドメイン知識を必要とする従来のDAアプローチとは異なり、MixDAはより幅広い新しいデータを作成する上で一般的であり、コミュニティで注目を集めている。
データミックスの階層的ビューに従って、mixdaをmixupベース、cutmixベース、ハイブリッドアプローチに分類する新しい分類法の提案から始めます。
様々なMixDAテクニックは、よりきめ細かい方法で包括的にレビューされる。
一般化により、MixDAは様々なアプリケーションに浸透し、この研究で完全にレビューされている。
また,mixdaがモデル性能,一般化,キャリブレーションといった異なる側面から機能する理由を,mixdaの特性に基づいたモデル動作を解説しながら検証した。
最後に,現在のmixda研究における批判的知見と根本的な課題を再定義し,今後の研究の方向性について概説する。
特定の領域におけるdaアプローチ(画像や自然言語処理など)を要約したり、mixda研究の一部のみをレビューしたりする以前の関連著作とは異なり、mixdaの分類学、方法論、応用、説明可能性に関して体系的な調査を行ったのは初めてです。
この作業は、MixDAテクニックとアプリケーションレビューのロードマップとして機能し、このエキサイティングな領域に関心のある研究者に有望な方向性を提供する。
関連論文リスト
- A Survey on Mixup Augmentations and Beyond [59.578288906956736]
選択したサンプルと対応するラベルを凸的に組み合わせた混合および関連データ混合手法が広く採用されている。
本調査では, 基礎混合法とその応用について概観する。
論文 参考訳(メタデータ) (2024-09-08T19:32:22Z) - Embedding And Clustering Your Data Can Improve Contrastive Pretraining [0.0]
我々は、事前訓練されたテキスト埋め込みモデルと古典的なk-meansクラスタリングアルゴリズムを活用することにより、ソースの粒度を超えてトレーニングデータ層を拡大することを検討する。
MSMARCOトランジッション検索データセットからBERTベースのテキスト埋め込みモデルをクエリパスペア上で事前学習する場合,NDCG@10の顕著な増加が観察された。
論文 参考訳(メタデータ) (2024-07-26T17:36:40Z) - SCMix: Stochastic Compound Mixing for Open Compound Domain Adaptation in Semantic Segmentation [20.311948275950606]
オープン複合ドメイン適応(OCDA)は、ラベル付きソースドメインから未ラベルの同種化合物ターゲットドメインの混合に知識を伝達し、未確認ドメインを一般化することを目的としている。
既存のOCDA法は、分割・分散戦略によって領域内ギャップを解決し、この問題を複数の個別・並列領域適応(DA)タスクに分割する。
本稿では、ソースと混合ターゲット分布のばらつきを軽減するために、主目的の複合混合戦略(SCMix)を提案する。
論文 参考訳(メタデータ) (2024-05-23T07:53:10Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - DualMix: Unleashing the Potential of Data Augmentation for Online
Class-Incremental Learning [14.194817677415065]
その結果,元のデータとの相関が低い拡張サンプルの方が,忘れの防止に有効であることが示唆された。
本稿では,拡張サンプルとラベルを同時に混合する拡張ミックスアップ(EnMix)手法を提案する。
クラス不均衡問題を解決するために、決定境界を調整するための適応混合法(AdpMix)を設計する。
論文 参考訳(メタデータ) (2023-03-14T12:55:42Z) - Dataset Distillation: A Comprehensive Review [76.26276286545284]
データセット蒸留(DD)は、トレーニングされたモデルが元のデータセットでトレーニングされたデータセットに匹敵するパフォーマンスを得るために、合成サンプルを含むはるかに小さなデータセットを導出することを目的としている。
本稿ではDDの最近の進歩とその応用について概説する。
論文 参考訳(メタデータ) (2023-01-17T17:03:28Z) - MixupE: Understanding and Improving Mixup from Directional Derivative
Perspective [86.06981860668424]
理論上は、バニラ・ミックスアップよりも優れた一般化性能を実現するために、Mixupの改良版を提案する。
提案手法は,様々なアーキテクチャを用いて,複数のデータセットにまたがるMixupを改善した。
論文 参考訳(メタデータ) (2022-12-27T07:03:52Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - MixAugment & Mixup: Augmentation Methods for Facial Expression
Recognition [4.273075747204267]
我々はMixAugmentと呼ばれるMixupに基づく新しいデータ拡張戦略を提案する。
本研究は、MixAugment over Mixupおよび様々な最先端手法の有効性を実証する広範囲な実験的研究を行う。
論文 参考訳(メタデータ) (2022-05-09T17:43:08Z) - Repulsive Mixture Models of Exponential Family PCA for Clustering [127.90219303669006]
指数関数型家族主成分分析(EPCA)の混合拡張は、従来のEPCAよりもデータ分布に関する構造情報を符号化するように設計された。
従来のEPCAの混合は、モデルの冗長性、すなわち混合成分間の重なりが問題であり、データクラスタリングの曖昧さを引き起こす可能性がある。
本稿では, 混合成分間での反発性増感前処理を導入し, ベイズ式に分散EPCA混合(DEPCAM)モデルを開発した。
論文 参考訳(メタデータ) (2020-04-07T04:07:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。