論文の概要: OpenMixup: A Comprehensive Mixup Benchmark for Visual Classification
- arxiv url: http://arxiv.org/abs/2209.04851v2
- Date: Sun, 1 Oct 2023 21:31:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-03 21:08:38.997460
- Title: OpenMixup: A Comprehensive Mixup Benchmark for Visual Classification
- Title(参考訳): OpenMixup: ビジュアル分類のための総合的な混合ベンチマーク
- Authors: Siyuan Li, Zedong Wang, Zicheng Liu, Di Wu, Cheng Tan, Weiyang Jin,
Stan Z. Li
- Abstract要約: 教師付き視覚分類のための総合的な混合ベンチマークであるOpenMixupを紹介する。
OpenMixupは、ミックスアップベースのモデル設計とトレーニングのフレームワークを提供し、幅広いデータミキシングアルゴリズム、広範囲に使用されているバックボーンとモジュール、モデル解析ツールキットのセットを含んでいる。
- 参考スコア(独自算出の注目度): 58.680100108871436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data mixing, or mixup, is a data-dependent augmentation technique that has
greatly enhanced the generalizability of modern deep neural networks. However,
a full grasp of mixup methodology necessitates a top-down hierarchical
understanding from systematic impartial evaluations and empirical analysis,
both of which are currently lacking within the community. In this paper, we
present OpenMixup, the first comprehensive mixup benchmarking study for
supervised visual classification. OpenMixup offers a unified mixup-based model
design and training framework, encompassing a wide collection of data mixing
algorithms, a diverse range of widely-used backbones and modules, and a set of
model analysis toolkits. To ensure fair and complete comparisons, large-scale
standard evaluations of various mixup baselines are conducted across 12
diversified image datasets with meticulous confounders and tweaking powered by
our modular and extensible codebase framework. Interesting observations and
insights are derived through detailed empirical analysis of how mixup policies,
network architectures, and dataset properties affect the mixup visual
classification performance. We hope that OpenMixup can bolster the
reproducibility of previously gained insights and facilitate a better
understanding of mixup properties, thereby giving the community a kick-start
for the development and evaluation of new mixup methods. The source code and
user documents are available at \url{https://github.com/Westlake-AI/openmixup}.
- Abstract(参考訳): データミキシング(data mixed、mixup)は、現代のディープニューラルネットワークの一般化性を大幅に向上させたデータ依存拡張技術である。
しかし、ミックスアップ手法を完全に把握するには、体系的な公平な評価と経験的分析からトップダウンの階層的理解が必要である。
本稿では,教師付き視覚分類のための最初の総合的mixupベンチマーク研究であるopenmixupを提案する。
openmixupは、さまざまなデータミキシングアルゴリズム、広く使用されているバックボーンとモジュール、モデル分析ツールキットを含む、統一されたミックスアップベースのモデル設計とトレーニングフレームワークを提供する。
公平かつ完全な比較を保証するため、さまざまなミックスアップベースラインの大規模な標準評価を、細心の注意深い共同創設者による12の多様化されたイメージデータセットと、モジュール化された拡張可能なコードベースフレームワークによる微調整によって実施する。
興味ある観察と洞察は、ミックスアップポリシー、ネットワークアーキテクチャ、データセットプロパティがミックスアップ視覚分類のパフォーマンスにどのように影響するかの詳細な経験的分析によって導き出される。
OpenMixupは、以前得られた洞察の再現性を高め、ミックスアッププロパティの理解を深め、新しいミックスアップメソッドの開発と評価の出発点となることを願っている。
ソースコードとユーザ文書は \url{https://github.com/Westlake-AI/openmixup} で入手できる。
関連論文リスト
- PowMix: A Versatile Regularizer for Multimodal Sentiment Analysis [71.8946280170493]
本稿では,単相混合型正規化手法の強みを生かした汎用な埋め込み空間正規化器であるPowMixを紹介する。
PowMixはマルチモーダルアーキテクチャの融合段階の前に統合され、テキストとテキストを混合するなどのモダル内混合を容易にし、レギュレータとして機能する。
論文 参考訳(メタデータ) (2023-12-19T17:01:58Z) - The Benefits of Mixup for Feature Learning [117.93273337740442]
最初に、機能やラベルに異なる線形パラメータを使用するMixupは、標準Mixupと同様のパフォーマンスが得られることを示す。
我々は、特徴雑音データモデルを検討し、Mixupトレーニングが共通の特徴と組み合わせることで、稀な特徴を効果的に学習できることを示します。
対照的に、標準的なトレーニングは共通の特徴しか学べないが、まれな特徴を学べないため、パフォーマンスが悪くなる。
論文 参考訳(メタデータ) (2023-03-15T08:11:47Z) - MixupE: Understanding and Improving Mixup from Directional Derivative
Perspective [86.06981860668424]
理論上は、バニラ・ミックスアップよりも優れた一般化性能を実現するために、Mixupの改良版を提案する。
提案手法は,様々なアーキテクチャを用いて,複数のデータセットにまたがるMixupを改善した。
論文 参考訳(メタデータ) (2022-12-27T07:03:52Z) - C-Mixup: Improving Generalization in Regression [71.10418219781575]
混合アルゴリズムは、一対の例とその対応するラベルを線形補間することによって一般化を改善する。
ラベルの類似度に基づいてサンプリング確率を調整するC-Mixupを提案する。
C-Mixupは6.56%、4.76%、5.82%の改善、タスクの一般化、アウト・オブ・ディストリビューションの堅牢性を実現している。
論文 参考訳(メタデータ) (2022-10-11T20:39:38Z) - AutoMix: Unveiling the Power of Mixup [34.623943038648164]
サンプル混合ポリシーを適応的に学習するために、識別機能を利用する柔軟性のある一般的な自動混合フレームワークを紹介します。
mixup をプリテキストタスクとして捉え,ミックスサンプル生成とミックスアップ分類という2つのサブプロブレムに分割した。
6つの人気のある分類ベンチマークの実験は、AutoMixが他の主要なミックスアップメソッドを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2021-03-24T07:21:53Z) - MixMo: Mixing Multiple Inputs for Multiple Outputs via Deep Subnetworks [97.08677678499075]
マルチインプットマルチアウトプットディープワークを学ぶための新しいフレームワークであるMixMoを紹介します。
機能、特にCutMixのパッチによるバイナリの混合は、ワークをより強く、より多様なものにすることによって、結果を向上します。
実装が容易で、推論にコストがかかることに加えて、我々のモデルはよりコストの高いデータ拡張深層アンサンブルよりも優れています。
論文 参考訳(メタデータ) (2021-03-10T15:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。