論文の概要: Swapping Semantic Contents for Mixing Images
- arxiv url: http://arxiv.org/abs/2205.10158v1
- Date: Fri, 20 May 2022 13:07:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 21:34:41.709330
- Title: Swapping Semantic Contents for Mixing Images
- Title(参考訳): 混合画像のためのスワッピングセマンティックコンテンツ
- Authors: R\'emy Sun, Cl\'ement Masson, Gilles H\'enaff, Nicolas Thome, Matthieu
Cord
- Abstract要約: データ拡張の混合は通常、クラス間のサンプルを無差別に混合するため、ラベル付きサンプルを新たに生成しない。
我々は、画像背景にセマンティックスタイルのコードを埋め込むジェネレータを学ぶことができるSciMixフレームワークを紹介した。
我々は,SciMixが非セマンティックな両親から多くの特徴を継承する新規な混合サンプルを産み出すことを示した。
- 参考スコア(独自算出の注目度): 44.0283695495163
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep architecture have proven capable of solving many tasks provided a
sufficient amount of labeled data. In fact, the amount of available labeled
data has become the principal bottleneck in low label settings such as
Semi-Supervised Learning. Mixing Data Augmentations do not typically yield new
labeled samples, as indiscriminately mixing contents creates between-class
samples. In this work, we introduce the SciMix framework that can learn to
generator to embed a semantic style code into image backgrounds, we obtain new
mixing scheme for data augmentation. We then demonstrate that SciMix yields
novel mixed samples that inherit many characteristics from their non-semantic
parents. Afterwards, we verify those samples can be used to improve the
performance semi-supervised frameworks like Mean Teacher or Fixmatch, and even
fully supervised learning on a small labeled dataset.
- Abstract(参考訳): ディープアーキテクチャは、十分な量のラベル付きデータを提供する多くのタスクを解決できることが証明されている。
実際、Semi-Supervised Learningのような低ラベル設定では、利用可能なラベル付きデータの量が主要なボトルネックになっている。
データ拡張の混合は通常、クラス間のサンプルを無差別に混合するため、ラベル付きサンプルを新たに生成しない。
本研究では、画像背景にセマンティックスタイルのコードを埋め込むジェネレータを学習するSciMixフレームワークを導入し、データ拡張のための新しい混合スキームを得る。
そして、scimixは、その非倫理的な両親から多くの特性を継承する新しい混合サンプルを生成することを実証する。
その後、これらのサンプルがMean TeacherやFixmatchのようなパフォーマンス半教師付きフレームワークの改善や、小さなラベル付きデータセットでの完全な教師付き学習に利用できることを検証する。
関連論文リスト
- SUMix: Mixup with Semantic and Uncertain Information [41.99721365685618]
混合データ拡張アプローチは、ディープラーニングの様々なタスクに応用されている。
そこで我々は,SUMix という新しい手法を提案し,混合率と混合試料の不確かさを学習する。
論文 参考訳(メタデータ) (2024-07-10T16:25:26Z) - Free Performance Gain from Mixing Multiple Partially Labeled Samples in Multi-label Image Classification [7.075271495641557]
マルチラベル画像分類データセットは、多くのラベルが欠落している場所で部分的にラベル付けされることが多い。
このような部分ラベル付きデータセット用に設計されたミックスアップ変種であるLogicMixを提案する。
LogicMixは、未知のラベルを正しく混合できるように、サンプルラベルを論理ORで混合する。
論文 参考訳(メタデータ) (2024-05-24T18:05:09Z) - TransformMix: Learning Transformation and Mixing Strategies from Data [20.79680733590554]
我々は、データからより良い変換と拡張戦略を混合するための自動アプローチであるTransformMixを提案する。
本稿では,トランスフォーメーション学習,分類,オブジェクト検出,知識蒸留設定におけるTransformMixの有効性を示す。
論文 参考訳(メタデータ) (2024-03-19T04:36:41Z) - Manifold DivideMix: A Semi-Supervised Contrastive Learning Framework for
Severe Label Noise [4.90148689564172]
実世界のデータセットには、データセットのどのクラスにも意味のないノイズの多いラベルサンプルが含まれている。
最先端の手法の多くは、IDラベル付きノイズサンプルを半教師付き学習のためのラベルなしデータとして利用する。
自己指導型トレーニングの利点を生かして,すべてのトレーニングデータからの情報を活用することを提案する。
論文 参考訳(メタデータ) (2023-08-13T23:33:33Z) - Self-Evolution Learning for Mixup: Enhance Data Augmentation on Few-Shot
Text Classification Tasks [75.42002070547267]
テキスト分類におけるデータ拡張のための自己進化学習(SE)に基づくミックスアップ手法を提案する。
モデル出力と原サンプルの1つのホットラベルを線形に補間して,新しい軟質なラベル混在を生成する,新しいインスタンス固有ラベル平滑化手法を提案する。
論文 参考訳(メタデータ) (2023-05-22T23:43:23Z) - GuidedMix-Net: Semi-supervised Semantic Segmentation by Using Labeled
Images as Reference [90.5402652758316]
半教師付きセマンティックセマンティックセグメンテーションのための新しい手法である GuidedMix-Net を提案する。
ラベル付き情報を使用して、ラベルなしのインスタンスの学習をガイドする。
競合セグメンテーションの精度を達成し、mIoUを以前のアプローチに比べて+7$%大きく改善する。
論文 参考訳(メタデータ) (2021-12-28T06:48:03Z) - GuidedMix-Net: Learning to Improve Pseudo Masks Using Labeled Images as
Reference [153.354332374204]
半教師付きセマンティックセマンティックセグメンテーションのための新しい手法である GuidedMix-Net を提案する。
まず、ラベル付きデータとラベルなしデータの間に特徴アライメントの目的を導入し、類似した画像対をキャプチャする。
MITransは、ラベルなしデータのさらなるプログレッシブな精細化のための強力な知識モジュールであることが示されている。
ラベル付きデータに対する教師付き学習とともに、ラベル付きデータの予測が生成した擬似マスクとともに学習される。
論文 参考訳(メタデータ) (2021-06-29T02:48:45Z) - SnapMix: Semantically Proportional Mixing for Augmenting Fine-grained
Data [124.95585891086894]
提案はSemantically Proportional Mixing(SnapMix)と呼ばれる
クラスアクティベーションマップ(CAM)を利用して、きめ細かいデータを強化する際にラベルノイズを低減します。
本手法は既存の混合型アプローチを一貫して上回っている。
論文 参考訳(メタデータ) (2020-12-09T03:37:30Z) - DivideMix: Learning with Noisy Labels as Semi-supervised Learning [111.03364864022261]
ノイズラベルを学習するためのフレームワークであるDivideMixを提案する。
複数のベンチマークデータセットの実験は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-02-18T06:20:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。