論文の概要: OpenMixup: Open Mixup Toolbox and Benchmark for Visual Representation Learning
- arxiv url: http://arxiv.org/abs/2209.04851v3
- Date: Sun, 06 Oct 2024 14:25:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-08 13:38:17.677799
- Title: OpenMixup: Open Mixup Toolbox and Benchmark for Visual Representation Learning
- Title(参考訳): OpenMixup: ビジュアル表現学習のためのOpen Mixup ToolboxとBenchmark
- Authors: Siyuan Li, Zedong Wang, Zicheng Liu, Juanxi Tian, Di Wu, Cheng Tan, Weiyang Jin, Stan Z. Li,
- Abstract要約: 視覚表現学習のための最初のミックスアップ拡張とベンチマークであるOpenMixupを紹介する。
私たちは、スクラッチから18の代表的なミックスアップベースラインをトレーニングし、11の画像データセットでそれらを厳格に評価します。
また、人気のあるビジョンバックボーン、最適化戦略、分析ツールキットのコレクションを含むモジュラーバックボーンをオープンソースにしています。
- 参考スコア(独自算出の注目度): 53.57075147367114
- License:
- Abstract: Mixup augmentation has emerged as a widely used technique for improving the generalization ability of deep neural networks (DNNs). However, the lack of standardized implementations and benchmarks has impeded recent progress, resulting in poor reproducibility, unfair comparisons, and conflicting insights. In this paper, we introduce OpenMixup, the first mixup augmentation codebase, and benchmark for visual representation learning. Specifically, we train 18 representative mixup baselines from scratch and rigorously evaluate them across 11 image datasets of varying scales and granularity, ranging from fine-grained scenarios to complex non-iconic scenes. We also open-source our modular codebase, including a collection of popular vision backbones, optimization strategies, and analysis toolkits, which not only supports the benchmarking but enables broader mixup applications beyond classification, such as self-supervised learning and regression tasks. Through experiments and empirical analysis, we gain observations and insights on mixup performance-efficiency trade-offs, generalization, and optimization behaviors, and thereby identify preferred choices for different needs. To the best of our knowledge, OpenMixup has facilitated several recent studies. We believe this work can further advance reproducible mixup augmentation research and thereby lay a solid ground for future progress in the community. The source code and user documents are available at \url{https://github.com/Westlake-AI/openmixup}.
- Abstract(参考訳): ミックスアップ拡張はディープニューラルネットワーク(DNN)の一般化能力を改善するために広く使われているテクニックとして登場した。
しかし、標準化された実装とベンチマークの欠如は、近年の進歩を妨げ、再現性の低下、不公平な比較、矛盾する洞察をもたらした。
本稿では,最初の混成拡張コードベースであるOpenMixupと,視覚表現学習のためのベンチマークを紹介する。
具体的には、18の代表的なミックスアップベースラインをスクラッチからトレーニングし、さまざまなスケールと粒度の11の画像データセットを厳格に評価する。
私たちはまた、人気のあるビジョンバックボーン、最適化戦略、分析ツールキットのコレクションを含む、モジュール化されたコードベースをオープンソース化しました。
実験と実証分析により,性能・効率のトレードオフ,一般化,最適化行動の混在に関する観察と洞察を得て,異なるニーズに好まれる選択を識別する。
私たちの知る限りでは、OpenMixupは最近のいくつかの研究を円滑に進めてきた。
本研究は,再現可能な混合促進研究をさらに進展させ,今後のコミュニティの発展の基盤となるものと信じている。
ソースコードとユーザ文書は \url{https://github.com/Westlake-AI/openmixup} で入手できる。
関連論文リスト
- A Survey on Mixup Augmentations and Beyond [59.578288906956736]
選択したサンプルと対応するラベルを凸的に組み合わせた混合および関連データ混合手法が広く採用されている。
本調査では, 基礎混合法とその応用について概観する。
論文 参考訳(メタデータ) (2024-09-08T19:32:22Z) - The Benefits of Mixup for Feature Learning [117.93273337740442]
最初に、機能やラベルに異なる線形パラメータを使用するMixupは、標準Mixupと同様のパフォーマンスが得られることを示す。
我々は、特徴雑音データモデルを検討し、Mixupトレーニングが共通の特徴と組み合わせることで、稀な特徴を効果的に学習できることを示します。
対照的に、標準的なトレーニングは共通の特徴しか学べないが、まれな特徴を学べないため、パフォーマンスが悪くなる。
論文 参考訳(メタデータ) (2023-03-15T08:11:47Z) - MixupE: Understanding and Improving Mixup from Directional Derivative
Perspective [86.06981860668424]
理論上は、バニラ・ミックスアップよりも優れた一般化性能を実現するために、Mixupの改良版を提案する。
提案手法は,様々なアーキテクチャを用いて,複数のデータセットにまたがるMixupを改善した。
論文 参考訳(メタデータ) (2022-12-27T07:03:52Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - MixAugment & Mixup: Augmentation Methods for Facial Expression
Recognition [4.273075747204267]
我々はMixAugmentと呼ばれるMixupに基づく新しいデータ拡張戦略を提案する。
本研究は、MixAugment over Mixupおよび様々な最先端手法の有効性を実証する広範囲な実験的研究を行う。
論文 参考訳(メタデータ) (2022-05-09T17:43:08Z) - MixMo: Mixing Multiple Inputs for Multiple Outputs via Deep Subnetworks [97.08677678499075]
マルチインプットマルチアウトプットディープワークを学ぶための新しいフレームワークであるMixMoを紹介します。
機能、特にCutMixのパッチによるバイナリの混合は、ワークをより強く、より多様なものにすることによって、結果を向上します。
実装が容易で、推論にコストがかかることに加えて、我々のモデルはよりコストの高いデータ拡張深層アンサンブルよりも優れています。
論文 参考訳(メタデータ) (2021-03-10T15:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。