論文の概要: OpenMixup: Open Mixup Toolbox and Benchmark for Visual Representation
Learning
- arxiv url: http://arxiv.org/abs/2209.04851v1
- Date: Sun, 11 Sep 2022 12:46:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:21:42.395653
- Title: OpenMixup: Open Mixup Toolbox and Benchmark for Visual Representation
Learning
- Title(参考訳): OpenMixup: ビジュアル表現学習のためのOpen Mixup ToolboxとBenchmark
- Authors: Siyuan Li, Zedong Wang, Zicheng Liu, Di Wu, and Stan Z. Li
- Abstract要約: textttOpenMixupは、教師付き、半教師付き、自己教師付き視覚表現学習のためのオープンソースのオールインワンツールボックスである。
統合モデル設計とトレーニングプラットフォームを提供し、ネットワークアーキテクチャとモジュールの豊富なセットで構成されています。
- 参考スコア(独自算出の注目度): 43.97616688503003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the remarkable progress of deep neural networks in computer vision, data
mixing augmentation techniques are widely studied to alleviate problems of
degraded generalization when the amount of training data is limited. However,
mixup strategies have not been well assembled in current vision toolboxes. In
this paper, we propose \texttt{OpenMixup}, an open-source all-in-one toolbox
for supervised, semi-, and self-supervised visual representation learning with
mixup. It offers an integrated model design and training platform, comprising a
rich set of prevailing network architectures and modules, a collection of data
mixing augmentation methods as well as practical model analysis tools. In
addition, we also provide standard mixup image classification benchmarks on
various datasets, which expedites practitioners to make fair comparisons among
state-of-the-art methods under the same settings. The source code and user
documents are available at \url{https://github.com/Westlake-AI/openmixup}.
- Abstract(参考訳): コンピュータビジョンにおけるディープニューラルネットワークの顕著な進歩により、トレーニングデータの量制限による一般化の低下を緩和するために、データ混合増強技術が広く研究されている。
しかし、ミックスアップ戦略は現在のビジョンツールボックスではうまく組み立てられていない。
本稿では,教師付き,半教師型,自己教師型視覚表現学習のためのオープンソースのオールインワンツールボックスである「texttt{OpenMixup}」を提案する。
一般的なネットワークアーキテクチャとモジュールの豊富なセット、データ混合拡張メソッドのコレクション、実用的なモデル分析ツールで構成される、統合されたモデル設計とトレーニングプラットフォームを提供する。
さらに,様々なデータセットにおける標準的なミックスアップ画像分類ベンチマークも提供している。
ソースコードとユーザ文書は \url{https://github.com/Westlake-AI/openmixup} で入手できる。
関連論文リスト
- PowMix: A Versatile Regularizer for Multimodal Sentiment Analysis [71.8946280170493]
本稿では,単相混合型正規化手法の強みを生かした汎用な埋め込み空間正規化器であるPowMixを紹介する。
PowMixはマルチモーダルアーキテクチャの融合段階の前に統合され、テキストとテキストを混合するなどのモダル内混合を容易にし、レギュレータとして機能する。
論文 参考訳(メタデータ) (2023-12-19T17:01:58Z) - The Benefits of Mixup for Feature Learning [117.93273337740442]
最初に、機能やラベルに異なる線形パラメータを使用するMixupは、標準Mixupと同様のパフォーマンスが得られることを示す。
我々は、特徴雑音データモデルを検討し、Mixupトレーニングが共通の特徴と組み合わせることで、稀な特徴を効果的に学習できることを示します。
対照的に、標準的なトレーニングは共通の特徴しか学べないが、まれな特徴を学べないため、パフォーマンスが悪くなる。
論文 参考訳(メタデータ) (2023-03-15T08:11:47Z) - MixupE: Understanding and Improving Mixup from Directional Derivative
Perspective [86.06981860668424]
理論上は、バニラ・ミックスアップよりも優れた一般化性能を実現するために、Mixupの改良版を提案する。
提案手法は,様々なアーキテクチャを用いて,複数のデータセットにまたがるMixupを改善した。
論文 参考訳(メタデータ) (2022-12-27T07:03:52Z) - C-Mixup: Improving Generalization in Regression [71.10418219781575]
混合アルゴリズムは、一対の例とその対応するラベルを線形補間することによって一般化を改善する。
ラベルの類似度に基づいてサンプリング確率を調整するC-Mixupを提案する。
C-Mixupは6.56%、4.76%、5.82%の改善、タスクの一般化、アウト・オブ・ディストリビューションの堅牢性を実現している。
論文 参考訳(メタデータ) (2022-10-11T20:39:38Z) - AutoMix: Unveiling the Power of Mixup [34.623943038648164]
サンプル混合ポリシーを適応的に学習するために、識別機能を利用する柔軟性のある一般的な自動混合フレームワークを紹介します。
mixup をプリテキストタスクとして捉え,ミックスサンプル生成とミックスアップ分類という2つのサブプロブレムに分割した。
6つの人気のある分類ベンチマークの実験は、AutoMixが他の主要なミックスアップメソッドを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2021-03-24T07:21:53Z) - MixMo: Mixing Multiple Inputs for Multiple Outputs via Deep Subnetworks [97.08677678499075]
マルチインプットマルチアウトプットディープワークを学ぶための新しいフレームワークであるMixMoを紹介します。
機能、特にCutMixのパッチによるバイナリの混合は、ワークをより強く、より多様なものにすることによって、結果を向上します。
実装が容易で、推論にコストがかかることに加えて、我々のモデルはよりコストの高いデータ拡張深層アンサンブルよりも優れています。
論文 参考訳(メタデータ) (2021-03-10T15:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。