論文の概要: Unsupervised Semantic Aggregation and Deformable Template Matching for
Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2010.05517v1
- Date: Mon, 12 Oct 2020 08:17:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 06:15:54.456775
- Title: Unsupervised Semantic Aggregation and Deformable Template Matching for
Semi-Supervised Learning
- Title(参考訳): 半教師付き学習のための教師なし意味集合と変形可能なテンプレートマッチング
- Authors: Tao Han, Junyu Gao, Yuan Yuan, Qi Wang
- Abstract要約: ラベルなしデータのセマンティックラベルを生成するために,T-MI損失に基づく教師なしセマンティックアグリゲーションを提案する。
ラベル付きサンプルを格納する機能プールは動的に更新され、ラベルなしデータのプロキシラベルが割り当てられる。
実験と解析により、USADTMが最高性能を達成することを確認した。
- 参考スコア(独自算出の注目度): 34.560447389853614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unlabeled data learning has attracted considerable attention recently.
However, it is still elusive to extract the expected high-level semantic
feature with mere unsupervised learning. In the meantime, semi-supervised
learning (SSL) demonstrates a promising future in leveraging few samples. In
this paper, we combine both to propose an Unsupervised Semantic Aggregation and
Deformable Template Matching (USADTM) framework for SSL, which strives to
improve the classification performance with few labeled data and then reduce
the cost in data annotating. Specifically, unsupervised semantic aggregation
based on Triplet Mutual Information (T-MI) loss is explored to generate
semantic labels for unlabeled data. Then the semantic labels are aligned to the
actual class by the supervision of labeled data. Furthermore, a feature pool
that stores the labeled samples is dynamically updated to assign proxy labels
for unlabeled data, which are used as targets for cross-entropy minimization.
Extensive experiments and analysis across four standard semi-supervised
learning benchmarks validate that USADTM achieves top performance (e.g.,
90.46$\%$ accuracy on CIFAR-10 with 40 labels and 95.20$\%$ accuracy with 250
labels). The code is released at https://github.com/taohan10200/USADTM.
- Abstract(参考訳): 最近、ラベルのないデータ学習が注目されている。
しかし、教師なし学習で期待されるハイレベルなセマンティックな特徴を抽出することは依然として容易である。
一方、半教師付き学習(SSL)は、少数のサンプルを活用する将来性を示している。
本稿では,教師なしの意味的アグリゲーションと変形可能なテンプレートマッチング(usadtm, deformable template matching for ssl)フレームワークを提案する。
具体的には,Triplet Mutual Information (T-MI)損失に基づく教師なしセマンティックアグリゲーションを探索し,ラベルなしデータのセマンティックラベルを生成する。
次に、ラベル付きデータの監督により、セマンティックラベルを実際のクラスにアライメントする。
さらに、ラベル付きサンプルを格納する機能プールを動的に更新して、ラベルなしデータのプロキシラベルを割り当てる。
4つの標準半教師付き学習ベンチマークの広範な実験と分析により、USADTMは最高性能を達成する(例えば、CIFAR-10では40ラベルで90.46$\%、250ラベルで95.20$\%)。
コードはhttps://github.com/taohan10200/usadtmでリリースされる。
関連論文リスト
- FlatMatch: Bridging Labeled Data and Unlabeled Data with Cross-Sharpness
for Semi-Supervised Learning [73.13448439554497]
Semi-Supervised Learning (SSL) は、ラベル付きデータが極めて少ない豊富なラベル付きデータを活用する効果的な方法である。
ほとんどのSSLメソッドは、通常、異なるデータ変換間のインスタンス単位の一貫性に基づいている。
本研究では,2つのデータセット間の一貫した学習性能を確保するために,クロスシャープネス尺度を最小化するFlatMatchを提案する。
論文 参考訳(メタデータ) (2023-10-25T06:57:59Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Contrastive Credibility Propagation for Reliable Semi-Supervised Learning [6.014538614447467]
逐次的擬似ラベルリファインメントによる深部SSLのためのコントラストCCP(Contrastive Credibility Propagation)を提案する。
CCPは、教師付きベースラインをデータシナリオで確実に上回るために、半教師付き学習とノイズの多いラベル学習を統一する。
論文 参考訳(メタデータ) (2022-11-17T23:01:47Z) - Pseudo-Labeling Based Practical Semi-Supervised Meta-Training for Few-Shot Learning [93.63638405586354]
擬似ラベルベースメタラーニング(PLML)という,シンプルで効果的なメタトレーニングフレームワークを提案する。
まず、一般的な半教師付き学習(SSL)を用いて分類器を訓練し、ラベルなしデータの擬似ラベルを得る。
ラベル付きおよび擬似ラベル付きデータから数ショットのタスクを構築し、特徴の平滑化と雑音抑圧を伴う新しい微調整法を設計する。
論文 参考訳(メタデータ) (2022-07-14T10:53:53Z) - AuxMix: Semi-Supervised Learning with Unconstrained Unlabeled Data [6.633920993895286]
我々は,現在最先端のSSLアルゴリズムが,ラベルなし補助データの存在下での性能低下に悩まされていることを示す。
ラベル付き集合にセマンティックに似ていない補助データを隠すために,自己教師付き学習タスクを活用して汎用的な特徴を学習するアルゴリズムであるAuxMixを提案する。
論文 参考訳(メタデータ) (2022-06-14T16:25:20Z) - Label Noise-Resistant Mean Teaching for Weakly Supervised Fake News
Detection [93.6222609806278]
本稿では,弱い教師付き偽ニュース検出のためのラベル雑音耐性平均教育手法 (LNMT) を提案する。
LNMTは、未ラベルのニュースとユーザのフィードバックコメントを活用して、トレーニングデータの量を増やす。
LNMTはラベル伝搬とラベル信頼性推定を備えた平均教師フレームワークを確立する。
論文 参考訳(メタデータ) (2022-06-10T16:01:58Z) - CLS: Cross Labeling Supervision for Semi-Supervised Learning [9.929229055862491]
Cross Labeling Supervision (CLS) は、典型的な擬似ラベル処理を一般化するフレームワークである。
CLSは擬似ラベルと相補ラベルの両方を作成でき、正と負の両方の学習をサポートする。
論文 参考訳(メタデータ) (2022-02-17T08:09:40Z) - Unsupervised Selective Labeling for More Effective Semi-Supervised
Learning [46.414510522978425]
教師なしの選択的なラベル付けは、与えられたラベル付きデータの最先端のアクティブラーニングよりもSSLメソッドを一貫して改善する。
私たちの仕事は、実用的で効率的なSSLの新しい標準を設定します。
論文 参考訳(メタデータ) (2021-10-06T18:25:50Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z) - Analysis of label noise in graph-based semi-supervised learning [2.4366811507669124]
機械学習では、目に見えないデータに一般化できるモデルを監督するためにラベルを取得する必要がある。
多くの場合、私たちのデータのほとんどはラベル付けされていない。
半教師付き学習(SSL)は、ラベルと入力データ分布の関係について強い仮定をすることで緩和する。
論文 参考訳(メタデータ) (2020-09-27T22:13:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。