論文の概要: OpenMixup: A Comprehensive Mixup Benchmark for Visual Classification
- arxiv url: http://arxiv.org/abs/2209.04851v2
- Date: Sun, 1 Oct 2023 21:31:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-03 21:08:38.997460
- Title: OpenMixup: A Comprehensive Mixup Benchmark for Visual Classification
- Title(参考訳): OpenMixup: ビジュアル分類のための総合的な混合ベンチマーク
- Authors: Siyuan Li, Zedong Wang, Zicheng Liu, Di Wu, Cheng Tan, Weiyang Jin,
Stan Z. Li
- Abstract要約: 教師付き視覚分類のための総合的な混合ベンチマークであるOpenMixupを紹介する。
OpenMixupは、ミックスアップベースのモデル設計とトレーニングのフレームワークを提供し、幅広いデータミキシングアルゴリズム、広範囲に使用されているバックボーンとモジュール、モデル解析ツールキットのセットを含んでいる。
- 参考スコア(独自算出の注目度): 58.680100108871436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data mixing, or mixup, is a data-dependent augmentation technique that has
greatly enhanced the generalizability of modern deep neural networks. However,
a full grasp of mixup methodology necessitates a top-down hierarchical
understanding from systematic impartial evaluations and empirical analysis,
both of which are currently lacking within the community. In this paper, we
present OpenMixup, the first comprehensive mixup benchmarking study for
supervised visual classification. OpenMixup offers a unified mixup-based model
design and training framework, encompassing a wide collection of data mixing
algorithms, a diverse range of widely-used backbones and modules, and a set of
model analysis toolkits. To ensure fair and complete comparisons, large-scale
standard evaluations of various mixup baselines are conducted across 12
diversified image datasets with meticulous confounders and tweaking powered by
our modular and extensible codebase framework. Interesting observations and
insights are derived through detailed empirical analysis of how mixup policies,
network architectures, and dataset properties affect the mixup visual
classification performance. We hope that OpenMixup can bolster the
reproducibility of previously gained insights and facilitate a better
understanding of mixup properties, thereby giving the community a kick-start
for the development and evaluation of new mixup methods. The source code and
user documents are available at \url{https://github.com/Westlake-AI/openmixup}.
- Abstract(参考訳): データミキシング(data mixed、mixup)は、現代のディープニューラルネットワークの一般化性を大幅に向上させたデータ依存拡張技術である。
しかし、ミックスアップ手法を完全に把握するには、体系的な公平な評価と経験的分析からトップダウンの階層的理解が必要である。
本稿では,教師付き視覚分類のための最初の総合的mixupベンチマーク研究であるopenmixupを提案する。
openmixupは、さまざまなデータミキシングアルゴリズム、広く使用されているバックボーンとモジュール、モデル分析ツールキットを含む、統一されたミックスアップベースのモデル設計とトレーニングフレームワークを提供する。
公平かつ完全な比較を保証するため、さまざまなミックスアップベースラインの大規模な標準評価を、細心の注意深い共同創設者による12の多様化されたイメージデータセットと、モジュール化された拡張可能なコードベースフレームワークによる微調整によって実施する。
興味ある観察と洞察は、ミックスアップポリシー、ネットワークアーキテクチャ、データセットプロパティがミックスアップ視覚分類のパフォーマンスにどのように影響するかの詳細な経験的分析によって導き出される。
OpenMixupは、以前得られた洞察の再現性を高め、ミックスアッププロパティの理解を深め、新しいミックスアップメソッドの開発と評価の出発点となることを願っている。
ソースコードとユーザ文書は \url{https://github.com/Westlake-AI/openmixup} で入手できる。
関連論文リスト
- A Survey on Mixup Augmentations and Beyond [59.578288906956736]
選択したサンプルと対応するラベルを凸的に組み合わせた混合および関連データ混合手法が広く採用されている。
本調査では, 基礎混合法とその応用について概観する。
論文 参考訳(メタデータ) (2024-09-08T19:32:22Z) - The Benefits of Mixup for Feature Learning [117.93273337740442]
最初に、機能やラベルに異なる線形パラメータを使用するMixupは、標準Mixupと同様のパフォーマンスが得られることを示す。
我々は、特徴雑音データモデルを検討し、Mixupトレーニングが共通の特徴と組み合わせることで、稀な特徴を効果的に学習できることを示します。
対照的に、標準的なトレーニングは共通の特徴しか学べないが、まれな特徴を学べないため、パフォーマンスが悪くなる。
論文 参考訳(メタデータ) (2023-03-15T08:11:47Z) - MixupE: Understanding and Improving Mixup from Directional Derivative
Perspective [86.06981860668424]
理論上は、バニラ・ミックスアップよりも優れた一般化性能を実現するために、Mixupの改良版を提案する。
提案手法は,様々なアーキテクチャを用いて,複数のデータセットにまたがるMixupを改善した。
論文 参考訳(メタデータ) (2022-12-27T07:03:52Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - MixAugment & Mixup: Augmentation Methods for Facial Expression
Recognition [4.273075747204267]
我々はMixAugmentと呼ばれるMixupに基づく新しいデータ拡張戦略を提案する。
本研究は、MixAugment over Mixupおよび様々な最先端手法の有効性を実証する広範囲な実験的研究を行う。
論文 参考訳(メタデータ) (2022-05-09T17:43:08Z) - MixMo: Mixing Multiple Inputs for Multiple Outputs via Deep Subnetworks [97.08677678499075]
マルチインプットマルチアウトプットディープワークを学ぶための新しいフレームワークであるMixMoを紹介します。
機能、特にCutMixのパッチによるバイナリの混合は、ワークをより強く、より多様なものにすることによって、結果を向上します。
実装が容易で、推論にコストがかかることに加えて、我々のモデルはよりコストの高いデータ拡張深層アンサンブルよりも優れています。
論文 参考訳(メタデータ) (2021-03-10T15:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。