論文の概要: LiDAM: Semi-Supervised Learning with Localized Domain Adaptation and
Iterative Matching
- arxiv url: http://arxiv.org/abs/2010.06668v2
- Date: Mon, 23 Nov 2020 22:42:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 23:12:43.060400
- Title: LiDAM: Semi-Supervised Learning with Localized Domain Adaptation and
Iterative Matching
- Title(参考訳): LiDAM: 局所的なドメイン適応と反復マッチングによる半教師付き学習
- Authors: Qun Liu, Matthew Shreve, Raja Bala
- Abstract要約: LiDAMは、ドメイン適応とセルフペース学習の両方に根ざした、半教師付き学習アプローチである。
CIFAR-100データセット上で最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 19.606592939074737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although data is abundant, data labeling is expensive. Semi-supervised
learning methods combine a few labeled samples with a large corpus of unlabeled
data to effectively train models. This paper introduces our proposed method
LiDAM, a semi-supervised learning approach rooted in both domain adaptation and
self-paced learning. LiDAM first performs localized domain shifts to extract
better domain-invariant features for the model that results in more accurate
clusters and pseudo-labels. These pseudo-labels are then aligned with real
class labels in a self-paced fashion using a novel iterative matching technique
that is based on majority consistency over high-confidence predictions.
Simultaneously, a final classifier is trained to predict ground-truth labels
until convergence. LiDAM achieves state-of-the-art performance on the CIFAR-100
dataset, outperforming FixMatch (73.50% vs. 71.82%) when using 2500 labels.
- Abstract(参考訳): データは豊富だが、データラベリングは高価である。
半教師付き学習法は、ラベル付きサンプルとラベルなしデータの大規模なコーパスを組み合わせて、効果的にモデルを訓練する。
本稿では,ドメイン適応と自己ペース学習の両方に根ざした半教師付き学習手法LiDAMを提案する。
LiDAMはまず、より正確なクラスタと擬似ラベルをもたらすモデルのドメイン不変性を改善するために、ローカライズされたドメインシフトを実行する。
これらの擬似ラベルは、高信頼度予測に対する多数整合性に基づく新しい反復マッチング手法を用いて、実クラスラベルと自己ペースで整列する。
同時に、最終分類器は収束するまで接地ラベルを予測するように訓練される。
LiDAMはCIFAR-100データセットで最先端のパフォーマンスを達成し、2500ラベルを使用する場合のFixMatch(73.50%対71.82%)を上回っている。
関連論文リスト
- Dual-Decoupling Learning and Metric-Adaptive Thresholding for Semi-Supervised Multi-Label Learning [81.83013974171364]
半教師付きマルチラベル学習(SSMLL)は、正確なマルチラベルアノテーションを収集するコストを削減するために、ラベルのないデータを活用する強力なフレームワークである。
半教師付き学習とは異なり、インスタンスに含まれる複数のセマンティクスのため、SSMLLの擬似ラベルとして最も確率の高いラベルを選択することはできない。
本稿では,高品質な擬似ラベルを生成するための二重パースペクティブ手法を提案する。
論文 参考訳(メタデータ) (2024-07-26T09:33:53Z) - Prompt-based Pseudo-labeling Strategy for Sample-Efficient Semi-Supervised Extractive Summarization [12.582774521907227]
半教師付き学習(SSL)は、ラベル付きデータが不足し、ラベルなしデータが豊富であるシナリオで広く使われているテクニックである。
標準SSLメソッドは、まず分類モデルをトレーニングし、次に分類器の信頼性値を使用して擬似ラベルを選択するために教師-学生パラダイムに従う。
より正確な擬似ラベルでラベルなしのサンプルを抽出するLLMを用いたプロンプトベースの擬似ラベル方式を提案する。
論文 参考訳(メタデータ) (2023-11-16T04:29:41Z) - JointMatch: A Unified Approach for Diverse and Collaborative
Pseudo-Labeling to Semi-Supervised Text Classification [65.268245109828]
半教師付きテキスト分類(SSTC)は、ラベルのないデータを活用する能力によって注目を集めている。
擬似ラベルに基づく既存のアプローチは、擬似ラベルバイアスと誤り蓄積の問題に悩まされる。
我々は、最近の半教師付き学習からアイデアを統一することでこれらの課題に対処する、SSTCの総合的なアプローチであるJointMatchを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:43:35Z) - Boosting Semi-Supervised Learning by bridging high and low-confidence
predictions [4.18804572788063]
Pseudo-labelingは半教師あり学習(SSL)において重要な技術である
ReFixMatchと呼ばれる新しい手法を提案し、これはトレーニング中にラベルなしのデータをすべて活用することを目的としている。
論文 参考訳(メタデータ) (2023-08-15T00:27:18Z) - FreeMatch: Self-adaptive Thresholding for Semi-supervised Learning [46.95063831057502]
本稿では,モデルの学習状況に応じて,信頼度閾値を自己適応的に定義・調整するためのemphFreeMatchを提案する。
FreeMatchは、最新の最先端メソッドであるFlexMatchよりもtextbf5.78%、textbf13.59%、textbf1.28%のエラー率削減を実現している。
論文 参考訳(メタデータ) (2022-05-15T10:07:52Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Weakly Supervised Pseudo-Label assisted Learning for ALS Point Cloud
Semantic Segmentation [1.4620086904601473]
競合ポイントクラウドの結果は通常、大量のラベル付きデータに依存します。
本研究では,基礎的事実を限定した正確な結果を得るための擬似ラベル方式を提案する。
論文 参考訳(メタデータ) (2021-05-05T08:07:21Z) - Adaptive Consistency Regularization for Semi-Supervised Transfer
Learning [31.66745229673066]
我々は,半教師付き学習と移動学習を共同で検討し,より実践的で競争的なパラダイムへと導いた。
事前学習した重みとラベルなしの目標サンプルの両方の価値をよりよく活用するために、適応整合正則化を導入する。
提案手法は,Pseudo Label,Mean Teacher,MixMatchといった,最先端の半教師付き学習技術より優れた適応整合性正規化を実現する。
論文 参考訳(メタデータ) (2021-03-03T05:46:39Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - FixMatch: Simplifying Semi-Supervised Learning with Consistency and
Confidence [93.91751021370638]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルの性能を向上させる効果的な手段を提供する。
本稿では、整合正則化と擬似ラベル付けという2つの共通SSL手法の単純な組み合わせのパワーを実証する。
筆者らのアルゴリズムであるFixMatchは、まず、弱拡張未ラベル画像上のモデルの予測を用いて擬似ラベルを生成する。
論文 参考訳(メタデータ) (2020-01-21T18:32:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。