論文の概要: StackMix: A complementary Mix algorithm
- arxiv url: http://arxiv.org/abs/2011.12618v2
- Date: Wed, 17 Mar 2021 16:49:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 02:12:05.802838
- Title: StackMix: A complementary Mix algorithm
- Title(参考訳): StackMix: 補完的なMixアルゴリズム
- Authors: John Chen, Samarth Sinha, Anastasios Kyrillidis
- Abstract要約: StackMix: 各入力は2つのイメージの連結として表示され、ラベルは2つの1ホットラベルの平均となります。
StackMixと既存のMix拡張を組み合わせることで、さまざまなベンチマークで大幅に向上したことを示す。
- 参考スコア(独自算出の注目度): 26.99020412895196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Techniques combining multiple images as input/output have proven to be
effective data augmentations for training convolutional neural networks. In
this paper, we present StackMix: Each input is presented as a concatenation of
two images, and the label is the mean of the two one-hot labels. On its own,
StackMix rivals other widely used methods in the "Mix" line of work. More
importantly, unlike previous work, significant gains across a variety of
benchmarks are achieved by combining StackMix with existing Mix augmentation,
effectively mixing more than two images. E.g., by combining StackMix with
CutMix, test error in the supervised setting is improved across a variety of
settings over CutMix, including 0.8\% on ImageNet, 3\% on Tiny ImageNet, 2\% on
CIFAR-100, 0.5\% on CIFAR-10, and 1.5\% on STL-10. Similar results are achieved
with Mixup.We further show that gains hold for robustness to common input
corruptions and perturbations at varying severities with a 0.7\% improvement on
CIFAR-100-C, by combining StackMix with AugMix over AugMix. On its own,
improvements with StackMix hold across different number of labeled samples on
CIFAR-100, maintaining approximately a 2\% gap in test accuracy -- down to
using only 5\% of the whole dataset -- and is effective in the semi-supervised
setting with a 2\% improvement with the standard benchmark $\Pi$-model.
Finally, we perform an extensive ablation study to better understand the
proposed algorithm.
- Abstract(参考訳): 複数の画像を入出力として組み合わせる技術は、畳み込みニューラルネットワークのトレーニングに有効なデータ拡張であることが証明されている。
本稿では,各入力を2つの画像の連結として表現し,ラベルを2つのホットラベルの平均とするstackmixを提案する。
StackMix自身は、"Mix"のラインで広く使われている他の手法と競合している。
さらに重要なことは、以前の作業とは異なり、StackMixと既存のMix拡張を組み合わせて、2つ以上のイメージを効果的に混ぜることで、さまざまなベンチマークで大幅に向上する。
例えば、StackMixとCutMixを組み合わせることで、ImageNetの0.8\%、Tiny ImageNetの3\%、CIFAR-100の2\%、CIFAR-10の0.5\%、STL-10の1.5\%など、教師付き設定におけるテストエラーが改善される。
mixup でも同様の結果が得られた。さらに augmix 上で stackmix と augmix を組み合わせることで,cifar-100-c における 0.7\% の改善とともに,共通入力汚損や摂動に対するロバスト性が向上することを示した。
それ自体は、StackMixによる改善は、CIFAR-100上のラベル付きサンプルのさまざまな数にまたがって保持され、テスト精度のおよそ2\%のギャップを -- データセット全体のわずか5\%まで -- 維持し、標準ベンチマークの$\Pi$-modelで2\%改善された半教師付き設定で有効である。
最後に,提案手法をよりよく理解するために,広範なアブレーション研究を行う。
関連論文リスト
- SUMix: Mixup with Semantic and Uncertain Information [41.99721365685618]
混合データ拡張アプローチは、ディープラーニングの様々なタスクに応用されている。
そこで我々は,SUMix という新しい手法を提案し,混合率と混合試料の不確かさを学習する。
論文 参考訳(メタデータ) (2024-07-10T16:25:26Z) - SpliceMix: A Cross-scale and Semantic Blending Augmentation Strategy for
Multi-label Image Classification [46.8141860303439]
マルチラベル画像分類,すなわちSpliceMixの簡易かつ効果的な拡張戦略を提案する。
本手法の「スプライス」は,1) 混合画像は, 混合に係わる画像のセマンティクスを, 共起バイアスを緩和するためのオブジェクト欠陥を伴わずにブレンドするグリッドの形で, 縮小された画像のスプライスであり, 2) 混合画像と元のミニバッチをスプリスして, 異なるスケールの画像を同時にトレーニングに寄与するSpliceMixed mini-batchを形成する。
論文 参考訳(メタデータ) (2023-11-26T05:45:27Z) - SMMix: Self-Motivated Image Mixing for Vision Transformers [65.809376136455]
CutMixは視覚変換器(ViT)の性能と一般化能力を決定する重要な拡張戦略である
既存のCutMixの変種は、より一貫性のある混合画像やより正確な混合ラベルを生成することでこの問題に対処している。
本稿では,学習モデルによる画像とラベルの強調を動機づける,効率的かつ効果的な自己運動画像混合法を提案する。
論文 参考訳(メタデータ) (2022-12-26T00:19:39Z) - C-Mixup: Improving Generalization in Regression [71.10418219781575]
混合アルゴリズムは、一対の例とその対応するラベルを線形補間することによって一般化を改善する。
ラベルの類似度に基づいてサンプリング確率を調整するC-Mixupを提案する。
C-Mixupは6.56%、4.76%、5.82%の改善、タスクの一般化、アウト・オブ・ディストリビューションの堅牢性を実現している。
論文 参考訳(メタデータ) (2022-10-11T20:39:38Z) - A Unified Analysis of Mixed Sample Data Augmentation: A Loss Function
Perspective [24.33244008451489]
混合サンプルデータ拡張(MSDA)の最初の統一的理論解析を提案する。
理論的結果から,MSDAは混合戦略の選択によらず,基礎となるトレーニング損失の画素レベルの正則化として振る舞うことが示唆された。
私たちの実装はMixupとCutMixの利点を活用できますが、実装は非常に効率的です。
論文 参考訳(メタデータ) (2022-08-21T15:54:25Z) - SplitMixer: Fat Trimmed From MLP-like Models [53.12472550578278]
視覚認識のためのシンプルで軽量な等方的アーキテクチャであるSplitMixerを提案する。
情報(空間混合)とチャネル(チャネル混合)の2種類のインターリーブ畳み込み操作を含む。
論文 参考訳(メタデータ) (2022-07-21T01:37:07Z) - RecursiveMix: Mixed Learning with History [21.865332756486314]
RM(RecursiveMix)は、歴史的入力-予測-ラベル三重項を利用した混合サンプル学習パラダイムである。
ResNet-50に基づいて、RMはCIFAR100で$sim$3.2%、ImageNetで$sim$2.8%の分類精度を無視できない余分な計算/保存コストで改善した。
論文 参考訳(メタデータ) (2022-03-14T03:59:47Z) - SnapMix: Semantically Proportional Mixing for Augmenting Fine-grained
Data [124.95585891086894]
提案はSemantically Proportional Mixing(SnapMix)と呼ばれる
クラスアクティベーションマップ(CAM)を利用して、きめ細かいデータを強化する際にラベルノイズを低減します。
本手法は既存の混合型アプローチを一貫して上回っている。
論文 参考訳(メタデータ) (2020-12-09T03:37:30Z) - Un-Mix: Rethinking Image Mixtures for Unsupervised Visual Representation
Learning [108.999497144296]
近年の先進的な教師なし学習手法では,同じ画像から2つの「ビュー」を学習表現として比較するために,サイムズ様の枠組みを用いている。
この研究は、教師なし学習においてラベル空間上の距離の概念を巻き込み、正対と負対のソフトな類似度をモデルに認識させることを目的としている。
その概念的単純さにもかかわらず、この解 -- 教師なし画像混合(Un-Mix)により、変換された入力と対応する新しいラベル空間からより微妙でより堅牢で一般化された表現を学習できることを実証的に示す。
論文 参考訳(メタデータ) (2020-03-11T17:59:04Z) - SuperMix: Supervising the Mixing Data Augmentation [36.264540916051125]
SuperMixは、視覚的特徴に富んだ混合画像を取得し、現実的な画像の優先事項に従うように設計されている。
我々は, オブジェクト分類と知識蒸留の2つの課題について, 広範囲な評価とアブレーション研究を通じてSuperMixの有効性を検証した。
論文 参考訳(メタデータ) (2020-03-10T23:24:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。