論文の概要: OpenMixup: Open Mixup Toolbox and Benchmark for Visual Representation
Learning
- arxiv url: http://arxiv.org/abs/2209.04851v1
- Date: Sun, 11 Sep 2022 12:46:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:21:42.395653
- Title: OpenMixup: Open Mixup Toolbox and Benchmark for Visual Representation
Learning
- Title(参考訳): OpenMixup: ビジュアル表現学習のためのOpen Mixup ToolboxとBenchmark
- Authors: Siyuan Li, Zedong Wang, Zicheng Liu, Di Wu, and Stan Z. Li
- Abstract要約: textttOpenMixupは、教師付き、半教師付き、自己教師付き視覚表現学習のためのオープンソースのオールインワンツールボックスである。
統合モデル設計とトレーニングプラットフォームを提供し、ネットワークアーキテクチャとモジュールの豊富なセットで構成されています。
- 参考スコア(独自算出の注目度): 43.97616688503003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the remarkable progress of deep neural networks in computer vision, data
mixing augmentation techniques are widely studied to alleviate problems of
degraded generalization when the amount of training data is limited. However,
mixup strategies have not been well assembled in current vision toolboxes. In
this paper, we propose \texttt{OpenMixup}, an open-source all-in-one toolbox
for supervised, semi-, and self-supervised visual representation learning with
mixup. It offers an integrated model design and training platform, comprising a
rich set of prevailing network architectures and modules, a collection of data
mixing augmentation methods as well as practical model analysis tools. In
addition, we also provide standard mixup image classification benchmarks on
various datasets, which expedites practitioners to make fair comparisons among
state-of-the-art methods under the same settings. The source code and user
documents are available at \url{https://github.com/Westlake-AI/openmixup}.
- Abstract(参考訳): コンピュータビジョンにおけるディープニューラルネットワークの顕著な進歩により、トレーニングデータの量制限による一般化の低下を緩和するために、データ混合増強技術が広く研究されている。
しかし、ミックスアップ戦略は現在のビジョンツールボックスではうまく組み立てられていない。
本稿では,教師付き,半教師型,自己教師型視覚表現学習のためのオープンソースのオールインワンツールボックスである「texttt{OpenMixup}」を提案する。
一般的なネットワークアーキテクチャとモジュールの豊富なセット、データ混合拡張メソッドのコレクション、実用的なモデル分析ツールで構成される、統合されたモデル設計とトレーニングプラットフォームを提供する。
さらに,様々なデータセットにおける標準的なミックスアップ画像分類ベンチマークも提供している。
ソースコードとユーザ文書は \url{https://github.com/Westlake-AI/openmixup} で入手できる。
関連論文リスト
- A Survey on Mixup Augmentations and Beyond [59.578288906956736]
選択したサンプルと対応するラベルを凸的に組み合わせた混合および関連データ混合手法が広く採用されている。
本調査では, 基礎混合法とその応用について概観する。
論文 参考訳(メタデータ) (2024-09-08T19:32:22Z) - The Benefits of Mixup for Feature Learning [117.93273337740442]
最初に、機能やラベルに異なる線形パラメータを使用するMixupは、標準Mixupと同様のパフォーマンスが得られることを示す。
我々は、特徴雑音データモデルを検討し、Mixupトレーニングが共通の特徴と組み合わせることで、稀な特徴を効果的に学習できることを示します。
対照的に、標準的なトレーニングは共通の特徴しか学べないが、まれな特徴を学べないため、パフォーマンスが悪くなる。
論文 参考訳(メタデータ) (2023-03-15T08:11:47Z) - MixupE: Understanding and Improving Mixup from Directional Derivative
Perspective [86.06981860668424]
理論上は、バニラ・ミックスアップよりも優れた一般化性能を実現するために、Mixupの改良版を提案する。
提案手法は,様々なアーキテクチャを用いて,複数のデータセットにまたがるMixupを改善した。
論文 参考訳(メタデータ) (2022-12-27T07:03:52Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - MixAugment & Mixup: Augmentation Methods for Facial Expression
Recognition [4.273075747204267]
我々はMixAugmentと呼ばれるMixupに基づく新しいデータ拡張戦略を提案する。
本研究は、MixAugment over Mixupおよび様々な最先端手法の有効性を実証する広範囲な実験的研究を行う。
論文 参考訳(メタデータ) (2022-05-09T17:43:08Z) - MixMo: Mixing Multiple Inputs for Multiple Outputs via Deep Subnetworks [97.08677678499075]
マルチインプットマルチアウトプットディープワークを学ぶための新しいフレームワークであるMixMoを紹介します。
機能、特にCutMixのパッチによるバイナリの混合は、ワークをより強く、より多様なものにすることによって、結果を向上します。
実装が容易で、推論にコストがかかることに加えて、我々のモデルはよりコストの高いデータ拡張深層アンサンブルよりも優れています。
論文 参考訳(メタデータ) (2021-03-10T15:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。