論文の概要: MixMOOD: A systematic approach to class distribution mismatch in
semi-supervised learning using deep dataset dissimilarity measures
- arxiv url: http://arxiv.org/abs/2006.07767v1
- Date: Sun, 14 Jun 2020 01:52:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 09:52:07.403630
- Title: MixMOOD: A systematic approach to class distribution mismatch in
semi-supervised learning using deep dataset dissimilarity measures
- Title(参考訳): mixmood:deep dataset dis similarity measureを用いた半教師付き学習におけるクラス分散ミスマッチの体系的アプローチ
- Authors: Saul Calderon-Ramirez, Luis Oala, Jordina Torrents-Barrena, Shengxiang
Yang, Armaghan Moemeni, Wojciech Samek, Miguel A. Molina-Cabello
- Abstract要約: MixMOODは、MixMatchを用いた半教師付きディープラーニング(SSDL)におけるクラス分布ミスマッチの効果を緩和するための体系的なアプローチである。
まず,90種類の分散ミスマッチシナリオにおいて,MixMatch精度の感度を解析した。
第2部では,ラベル付きデータセットと非ラベル付きデータセットを比較するために,DeDiM(Deep dataset Dissimilarity measures)と呼ばれる効率的かつ効果的な手法を提案する。
- 参考スコア(独自算出の注目度): 13.823764245165792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose MixMOOD - a systematic approach to mitigate effect
of class distribution mismatch in semi-supervised deep learning (SSDL) with
MixMatch. This work is divided into two components: (i) an extensive out of
distribution (OOD) ablation test bed for SSDL and (ii) a quantitative
unlabelled dataset selection heuristic referred to as MixMOOD. In the first
part, we analyze the sensitivity of MixMatch accuracy under 90 different
distribution mismatch scenarios across three multi-class classification tasks.
These are designed to systematically understand how OOD unlabelled data affects
MixMatch performance. In the second part, we propose an efficient and effective
method, called deep dataset dissimilarity measures (DeDiMs), to compare
labelled and unlabelled datasets. The proposed DeDiMs are quick to evaluate and
model agnostic. They use the feature space of a generic Wide-ResNet and can be
applied prior to learning. Our test results reveal that supposed semantic
similarity between labelled and unlabelled data is not a good heuristic for
unlabelled data selection. In contrast, strong correlation between MixMatch
accuracy and the proposed DeDiMs allow us to quantitatively rank different
unlabelled datasets ante hoc according to expected MixMatch accuracy. This is
what we call MixMOOD. Furthermore, we argue that the MixMOOD approach can aid
to standardize the evaluation of different semi-supervised learning techniques
under real world scenarios involving out of distribution data.
- Abstract(参考訳): 本研究では,半教師付き深層学習(ssdl)におけるクラス分散ミスマッチの効果を軽減するための体系的手法であるmixmoodを提案する。
この作品は2つの構成要素に分けられる。
(i)ssdl及びssl用広範なout of distribution(ood)アブレーション試験層
(ii)mixmoodと呼ばれる量的不ラベルなデータセット選択ヒューリスティック。
まず,MixMatchの精度を3つのマルチクラス分類タスクにおいて90種類の分散ミスマッチシナリオで解析する。
これらは、OODアンラベリングデータがMixMatchのパフォーマンスにどのように影響するかを体系的に理解するために設計されている。
第2部では,ラベル付きデータセットと非ラベル付きデータセットを比較するために,DeDiM(Deep dataset Dissimilarity measures)と呼ばれる効率的かつ効果的な手法を提案する。
提案したDeDiMは、評価とモデルに依存しない。
汎用的な Wide-ResNet の機能空間を使用し、学習前に適用することができる。
実験の結果,ラベル付きデータと非ラベル付きデータとのセマンティックな類似性は,非ラベル付きデータ選択には適さないことがわかった。
対照的に、MixMatch精度と提案したDeDiMsとの強い相関により、予測されたMixMatch精度に応じて、異なる非ラベルデータセットアンテホックを定量的にランク付けすることができる。
これがMixMOODと呼ばれるものです。
さらに,mixmoodアプローチは,分散データを含む実世界シナリオにおいて,様々な半教師付き学習手法の評価を標準化する上で有効である。
関連論文リスト
- Dual-Decoupling Learning and Metric-Adaptive Thresholding for Semi-Supervised Multi-Label Learning [81.83013974171364]
半教師付きマルチラベル学習(SSMLL)は、正確なマルチラベルアノテーションを収集するコストを削減するために、ラベルのないデータを活用する強力なフレームワークである。
半教師付き学習とは異なり、インスタンスに含まれる複数のセマンティクスのため、SSMLLの擬似ラベルとして最も確率の高いラベルを選択することはできない。
本稿では,高品質な擬似ラベルを生成するための二重パースペクティブ手法を提案する。
論文 参考訳(メタデータ) (2024-07-26T09:33:53Z) - SUMix: Mixup with Semantic and Uncertain Information [41.99721365685618]
混合データ拡張アプローチは、ディープラーニングの様々なタスクに応用されている。
そこで我々は,SUMix という新しい手法を提案し,混合率と混合試料の不確かさを学習する。
論文 参考訳(メタデータ) (2024-07-10T16:25:26Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - JointMatch: A Unified Approach for Diverse and Collaborative
Pseudo-Labeling to Semi-Supervised Text Classification [65.268245109828]
半教師付きテキスト分類(SSTC)は、ラベルのないデータを活用する能力によって注目を集めている。
擬似ラベルに基づく既存のアプローチは、擬似ラベルバイアスと誤り蓄積の問題に悩まされる。
我々は、最近の半教師付き学習からアイデアを統一することでこれらの課題に対処する、SSTCの総合的なアプローチであるJointMatchを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:43:35Z) - Manifold DivideMix: A Semi-Supervised Contrastive Learning Framework for
Severe Label Noise [4.90148689564172]
実世界のデータセットには、データセットのどのクラスにも意味のないノイズの多いラベルサンプルが含まれている。
最先端の手法の多くは、IDラベル付きノイズサンプルを半教師付き学習のためのラベルなしデータとして利用する。
自己指導型トレーニングの利点を生かして,すべてのトレーニングデータからの情報を活用することを提案する。
論文 参考訳(メタデータ) (2023-08-13T23:33:33Z) - Exploring the Boundaries of Semi-Supervised Facial Expression
Recognition: Learning from In-Distribution, Out-of-Distribution, and
Unconstrained Data [19.442685015494316]
表情認識(FER)における最新の半教師あり手法11について検討する。
本研究は,非流通,アウト・オブ・ディストリビューション,制約のない,非常に小さなデータからの半教師付き学習を対象とする。
以上の結果から,FixMatchは非分散データに対して常に優れたパフォーマンスを実現していることを示す一方,ReMixMatchは非分散データ,非制約データ,希少データシナリオにおいて,すべてのメソッドにおいて際立っている。
論文 参考訳(メタデータ) (2023-06-02T01:40:08Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - DivideMix: Learning with Noisy Labels as Semi-supervised Learning [111.03364864022261]
ノイズラベルを学習するためのフレームワークであるDivideMixを提案する。
複数のベンチマークデータセットの実験は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-02-18T06:20:06Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。