論文の概要: Integrating Distribution Matching into Semi-Supervised Contrastive Learning for Labeled and Unlabeled Data
- arxiv url: http://arxiv.org/abs/2601.04518v1
- Date: Thu, 08 Jan 2026 02:32:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.996776
- Title: Integrating Distribution Matching into Semi-Supervised Contrastive Learning for Labeled and Unlabeled Data
- Title(参考訳): ラベル付きおよびラベルなしデータの半教師付きコントラスト学習への分布マッチングの統合
- Authors: Shogo Nakayama, Masahiro Okuda,
- Abstract要約: 半教師付きコントラスト学習(SSL)は、少量のラベル付きデータと大量のラベル付きデータとが共存するシナリオにおいて非常に関係がある。
本研究の目的は,ラベル付きとラベルなしの機能埋め込みの分散マッチングを組み込むことにより,擬似ラベルベースのSSLを強化することである。
- 参考スコア(独自算出の注目度): 1.0312968200748116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advancement of deep learning has greatly improved supervised image classification. However, labeling data is costly, prompting research into unsupervised learning methods such as contrastive learning. In real-world scenarios, fully unlabeled datasets are rare, making semi-supervised learning (SSL) highly relevant in scenarios where a small amount of labeled data coexists with a large volume of unlabeled data. A well-known semi-supervised contrastive learning approach involves assigning pseudo-labels to unlabeled data. This study aims to enhance pseudo-label-based SSL by incorporating distribution matching between labeled and unlabeled feature embeddings to improve image classification accuracy across multiple datasets.
- Abstract(参考訳): ディープラーニングの進歩は、教師付き画像分類を大幅に改善した。
しかし、ラベル付けにはコストがかかり、対照的な学習のような教師なし学習方法の研究が促される。
実世界のシナリオでは、完全にラベル付けされていないデータセットはまれであり、ラベル付きデータの少量がラベル付けされていない大量のデータと共存するシナリオにおいて、半教師付き学習(SSL)は極めて関連性が高い。
よく知られた半教師付きコントラスト学習アプローチでは、擬似ラベルをラベルのないデータに割り当てる。
本研究では,ラベル付き特徴埋め込みとラベルなし特徴埋め込みの分布マッチングを導入し,複数のデータセット間の画像分類精度を向上させることにより,擬似ラベルベースのSSLを強化することを目的とする。
関連論文リスト
- Continuous Contrastive Learning for Long-Tailed Semi-Supervised Recognition [50.61991746981703]
現在の最先端のLTSSLアプローチは、大規模な未ラベルデータに対して高品質な擬似ラベルに依存している。
本稿では,長期学習における様々な提案を統一する新しい確率的枠組みを提案する。
我々は、信頼度とスムーズな擬似ラベルを用いて、我々のフレームワークをラベルなしデータに拡張する、連続的コントラスト学習手法であるCCLを導入する。
論文 参考訳(メタデータ) (2024-10-08T15:06:10Z) - InterLUDE: Interactions between Labeled and Unlabeled Data to Enhance Semi-Supervised Learning [13.010558192697133]
半教師付き学習(SSL)はラベル付きデータとラベルなしデータの両方でトレーニングすることでタスクパフォーマンスを向上させる。
本稿では,ラベル付きラベルなしインタラクションの恩恵を受ける2つの部分からなるSSLを強化するための新しいアプローチであるInterLUDEを紹介する。
論文 参考訳(メタデータ) (2024-03-15T19:54:10Z) - FlatMatch: Bridging Labeled Data and Unlabeled Data with Cross-Sharpness
for Semi-Supervised Learning [73.13448439554497]
Semi-Supervised Learning (SSL) は、ラベル付きデータが極めて少ない豊富なラベル付きデータを活用する効果的な方法である。
ほとんどのSSLメソッドは、通常、異なるデータ変換間のインスタンス単位の一貫性に基づいている。
本研究では,2つのデータセット間の一貫した学習性能を確保するために,クロスシャープネス尺度を最小化するFlatMatchを提案する。
論文 参考訳(メタデータ) (2023-10-25T06:57:59Z) - Contrastive Credibility Propagation for Reliable Semi-Supervised Learning [6.014538614447467]
逐次的擬似ラベルリファインメントによる深部SSLのためのコントラストCCP(Contrastive Credibility Propagation)を提案する。
CCPは、教師付きベースラインをデータシナリオで確実に上回るために、半教師付き学習とノイズの多いラベル学習を統一する。
論文 参考訳(メタデータ) (2022-11-17T23:01:47Z) - GuidedMix-Net: Semi-supervised Semantic Segmentation by Using Labeled
Images as Reference [90.5402652758316]
半教師付きセマンティックセマンティックセグメンテーションのための新しい手法である GuidedMix-Net を提案する。
ラベル付き情報を使用して、ラベルなしのインスタンスの学習をガイドする。
競合セグメンテーションの精度を達成し、mIoUを以前のアプローチに比べて+7$%大きく改善する。
論文 参考訳(メタデータ) (2021-12-28T06:48:03Z) - OpenCoS: Contrastive Semi-supervised Learning for Handling Open-set
Unlabeled Data [65.19205979542305]
ラベル付けされていないデータには、実際にはクラス外のサンプルが含まれる。
OpenCoSは、このリアルな半教師付き学習シナリオを扱う方法である。
論文 参考訳(メタデータ) (2021-06-29T06:10:05Z) - GuidedMix-Net: Learning to Improve Pseudo Masks Using Labeled Images as
Reference [153.354332374204]
半教師付きセマンティックセマンティックセグメンテーションのための新しい手法である GuidedMix-Net を提案する。
まず、ラベル付きデータとラベルなしデータの間に特徴アライメントの目的を導入し、類似した画像対をキャプチャする。
MITransは、ラベルなしデータのさらなるプログレッシブな精細化のための強力な知識モジュールであることが示されている。
ラベル付きデータに対する教師付き学習とともに、ラベル付きデータの予測が生成した擬似マスクとともに学習される。
論文 参考訳(メタデータ) (2021-06-29T02:48:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。