論文の概要: Milking CowMask for Semi-Supervised Image Classification
- arxiv url: http://arxiv.org/abs/2003.12022v3
- Date: Fri, 5 Jun 2020 18:11:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 22:00:03.815346
- Title: Milking CowMask for Semi-Supervised Image Classification
- Title(参考訳): 半スーパービジョン画像分類のための乳牛マスク
- Authors: Geoff French, Avital Oliver, Tim Salimans
- Abstract要約: 我々はCowMaskと呼ばれる新しいマスクベースの拡張手法を提案する。
ImageNetでは10%のラベル付きデータで、トップ5エラーは8.76%、トップ1エラーは26.06%である。
さらに,多数の小規模実験を行うことにより,半教師付き学習におけるCowMaskの挙動について検討する。
- 参考スコア(独自算出の注目度): 9.678739160531654
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Consistency regularization is a technique for semi-supervised learning that
underlies a number of strong results for classification with few labeled data.
It works by encouraging a learned model to be robust to perturbations on
unlabeled data. Here, we present a novel mask-based augmentation method called
CowMask. Using it to provide perturbations for semi-supervised consistency
regularization, we achieve a state-of-the-art result on ImageNet with 10%
labeled data, with a top-5 error of 8.76% and top-1 error of 26.06%. Moreover,
we do so with a method that is much simpler than many alternatives. We further
investigate the behavior of CowMask for semi-supervised learning by running
many smaller scale experiments on the SVHN, CIFAR-10 and CIFAR-100 data sets,
where we achieve results competitive with the state of the art, indicating that
CowMask is widely applicable. We open source our code at
https://github.com/google-research/google-research/tree/master/milking_cowmask
- Abstract(参考訳): 一貫性規則化(Consistency regularization)は、ラベル付きデータの少ない分類のための強力な結果の基礎となる半教師付き学習手法である。
学習モデルに対して、ラベルのないデータに対する摂動に対して堅牢であることを促すことで機能する。
本稿では,新しいマスクベース拡張法であるcowmaskを提案する。
半教師付き整合正則化のための摂動を提供することで、10%のラベル付きデータで、トップ5エラーは8.76%、トップ1エラーは26.06%となる。
さらに、多くの代替品よりもずっとシンプルな方法でそれを実現します。
さらに,SVHN,CIFAR-10,CIFAR-100データセット上で多数の小規模実験を行い,CowMaskの半教師学習における挙動について検討し,CowMaskが広く適用可能であることを示す。
ソースコードはhttps://github.com/google-research/google-research/tree/master/milking_cowmaskで公開しています。
関連論文リスト
- Learning Mask-aware CLIP Representations for Zero-Shot Segmentation [120.97144647340588]
Mask-awareProposals CLIP (IP-CLIP) は任意の数の画像とマスクの提案を同時に処理するために提案されている。
マスク認識損失と自己蒸留損失はIP-CLIPを微調整するように設計されており、CLIPが異なるマスク提案に応答することを保証している。
我々は、人気のあるゼロショットベンチマークで広範な実験を行う。
論文 参考訳(メタデータ) (2023-09-30T03:27:31Z) - MaskCon: Masked Contrastive Learning for Coarse-Labelled Dataset [19.45520684918576]
我々は、@textbfMask$ed $textbfCon$trastive Learning($textbfMaskCon$)と呼ばれる対照的な学習方法を提案する。
各サンプルに対して,本手法は,他のサンプルに対して粗いラベルを付与して軟質ラベルを生成する。
提案手法は, 各種データセットにおける現状よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-03-22T17:08:31Z) - DiffuMask: Synthesizing Images with Pixel-level Annotations for Semantic
Segmentation Using Diffusion Models [68.21154597227165]
本研究では,オフザシェルフ安定拡散モデルにより生成された合成画像の正確なセマンティックマスクを自動で取得できることを示す。
我々のアプローチはDiffuMaskと呼ばれ、テキストと画像間の相互注意マップの可能性を利用しています。
論文 参考訳(メタデータ) (2023-03-21T08:43:15Z) - Image Classification on Small Datasets via Masked Feature Mixing [22.105356244579745]
ChimeraMixと呼ばれるアーキテクチャは、インスタンスの合成を生成することによってデータ拡張を学習する。
生成モデルは、画像をペアにエンコードし、マスクでガイドされた特徴を組み合わせて、新しいサンプルを作成する。
評価のために、すべてのメソッドは追加データなしでスクラッチからトレーニングされる。
論文 参考訳(メタデータ) (2022-02-23T16:51:22Z) - Few-shot semantic segmentation via mask aggregation [5.886986014593717]
セマンティックセグメンテーションは、ラベル付きデータが少ない新しいクラスを認識することを目的としている。
従来の研究では、これをピクセル単位の分類問題と見なしていた。
この問題に対処するためのマスクベースの分類手法を提案する。
論文 参考訳(メタデータ) (2022-02-15T07:13:09Z) - Correlated Input-Dependent Label Noise in Large-Scale Image
Classification [4.979361059762468]
我々は、データセット内のラベルノイズとしてヘテロセダスティック(herescedastic, label noise)として知られる入力依存のモデリングに対して、原則的な確率論的アプローチをとる。
学習された共分散構造は、意味的に類似したクラスと共起するクラスの間のラベルノイズの既知の情報源をキャプチャする。
We set a new-of-the-art results on WebVision 1.0 with 76.6% top-1 accuracy。
論文 参考訳(メタデータ) (2021-05-19T17:30:59Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z) - Un-Mix: Rethinking Image Mixtures for Unsupervised Visual Representation
Learning [108.999497144296]
近年の先進的な教師なし学習手法では,同じ画像から2つの「ビュー」を学習表現として比較するために,サイムズ様の枠組みを用いている。
この研究は、教師なし学習においてラベル空間上の距離の概念を巻き込み、正対と負対のソフトな類似度をモデルに認識させることを目的としている。
その概念的単純さにもかかわらず、この解 -- 教師なし画像混合(Un-Mix)により、変換された入力と対応する新しいラベル空間からより微妙でより堅牢で一般化された表現を学習できることを実証的に示す。
論文 参考訳(メタデータ) (2020-03-11T17:59:04Z) - BlendMask: Top-Down Meets Bottom-Up for Instance Segmentation [103.74690082121079]
本研究では,インスタンスレベルの情報とセマンティックな情報と,低レベルの微細な粒度を効果的に組み合わせることで,マスク予測の改善を実現する。
私たちの主な貢献は、トップダウンとボトムアップの両方のインスタンスセグメンテーションアプローチからインスピレーションを得たブレンダーモジュールです。
BlendMaskは、非常に少ないチャネルで、ピクセルあたりの高密度な位置感受性インスタンス機能を効果的に予測し、単一の畳み込み層で各インスタンスの注意マップを学習することができる。
論文 参考訳(メタデータ) (2020-01-02T03:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。