論文の概要: Efficient Pre-trained Features and Recurrent Pseudo-Labeling
inUnsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2104.13486v1
- Date: Tue, 27 Apr 2021 21:35:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 20:30:19.545189
- Title: Efficient Pre-trained Features and Recurrent Pseudo-Labeling
inUnsupervised Domain Adaptation
- Title(参考訳): 教師なし領域適応における効率的事前学習特徴と再帰的擬似ラベル
- Authors: Youshan Zhang and Brian D. Davison
- Abstract要約: 監視されていないDA問題で17の有名なImageNetモデルから最高のトレーニング済み機能を効率的に選択する方法を紹介します。
本稿では,最適な事前学習機能(prpl)を用いた再帰的擬似ラベルモデルを提案する。
- 参考スコア(独自算出の注目度): 6.942003070153651
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Domain adaptation (DA) mitigates the domain shift problem when transferring
knowledge from one annotated domain to another similar but different unlabeled
domain. However, existing models often utilize one of the ImageNet models as
the backbone without exploring others, and fine-tuning or retraining the
backbone ImageNet model is also time-consuming. Moreover, pseudo-labeling has
been used to improve the performance in the target domain, while how to
generate confident pseudo labels and explicitly align domain distributions has
not been well addressed. In this paper, we show how to efficiently opt for the
best pre-trained features from seventeen well-known ImageNet models in
unsupervised DA problems. In addition, we propose a recurrent pseudo-labeling
model using the best pre-trained features (termed PRPL) to improve
classification performance. To show the effectiveness of PRPL, we evaluate it
on three benchmark datasets, Office+Caltech-10, Office-31, and Office-Home.
Extensive experiments show that our model reduces computation time and boosts
the mean accuracy to 98.1%, 92.4%, and 81.2%, respectively, substantially
outperforming the state of the art.
- Abstract(参考訳): ドメイン適応(da)は、ある注釈付きドメインから類似するが異なるラベル付きドメインに知識を移す際のドメインシフト問題を緩和する。
しかし、既存のモデルはバックボーンとしてimagenetモデルの1つを他を探索せずに使用することが多く、backbone imagenetモデルの微調整や再トレーニングも時間を要する。
さらに、疑似ラベルは、ターゲットドメインのパフォーマンスを改善するために使われており、自信のある疑似ラベルを生成し、ドメイン分布を明示的に調整する方法は、うまく対処されていない。
本稿では,教師なしda問題において,よく知られた17のイメージネットモデルから最適な事前学習機能を効率的に選択する方法を示す。
さらに,最も優れた事前学習機能(PRPL)を用いた再帰的擬似ラベルモデルを提案し,分類性能を向上させる。
PRPLの有効性を示すため,Office+Caltech-10,Office-31,Office-Homeの3つのベンチマークデータセットを用いて評価を行った。
大規模な実験により, 計算時間を削減し, 平均精度を98.1%, 92.4%, 81.2%に向上し, 技術水準を大幅に上回った。
関連論文リスト
- Hybrid diffusion models: combining supervised and generative pretraining for label-efficient fine-tuning of segmentation models [55.2480439325792]
そこで本研究では,第1領域における画像のデノベーションとマスク予測を同時に行うことを目的とした,新しいプレテキストタスクを提案する。
提案手法を用いて事前学習したモデルを微調整すると、教師なしまたは教師なしの事前学習を用いて訓練した類似モデルの微調整よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2024-08-06T20:19:06Z) - Unsupervised Domain Adaptation for Semantic Segmentation with Pseudo
Label Self-Refinement [9.69089112870202]
擬似ラベルのオンライン精錬のための補助的擬似ラベル精錬ネットワーク(PRN)を提案する。
3つの異なるドメインシフトを持つベンチマークデータセットに対する我々のアプローチを評価する。
論文 参考訳(メタデータ) (2023-10-25T20:31:07Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Domain-knowledge Inspired Pseudo Supervision (DIPS) for Unsupervised
Image-to-Image Translation Models to Support Cross-Domain Classification [16.4151067682813]
本稿ではDIPS(Domain-knowledge Inspired Pseudo Supervision)と呼ばれる新しい手法を提案する。
DIPSはドメインインフォームド・ガウス混合モデルを使用して疑似アノテーションを生成し、従来の教師付きメトリクスの使用を可能にする。
最適保存チェックポイントモデルを選択する際に、FIDを含む様々なGAN評価指標を上回り、その効果を実証する。
論文 参考訳(メタデータ) (2023-03-18T02:42:18Z) - Stacking Ensemble Learning in Deep Domain Adaptation for Ophthalmic
Image Classification [61.656149405657246]
ドメイン適応は、十分なラベルデータを取得することが困難な画像分類タスクに有効である。
本稿では,3つのドメイン適応手法を拡張することで,アンサンブル学習を積み重ねるための新しい手法SELDAを提案する。
Age-Related Eye Disease Study (AREDS)ベンチマーク眼科データセットを用いた実験結果から,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2022-09-27T14:19:00Z) - Masked Unsupervised Self-training for Zero-shot Image Classification [98.23094305347709]
Masked Unsupervised Self-Training (MUST)は、疑似ラベルと生画像という2つの異なる、補完的な監督源を活用する新しいアプローチである。
MUSTはCLIPを大きなマージンで改善し、教師なしと教師なしの分類のパフォーマンスギャップを狭める。
論文 参考訳(メタデータ) (2022-06-07T02:03:06Z) - Source-Free Domain Adaptive Fundus Image Segmentation with Denoised
Pseudo-Labeling [56.98020855107174]
ドメイン適応は通常、ソースドメインデータにアクセスして、ターゲットデータとのドメインアライメントのために配布情報を利用する必要があります。
多くの実世界のシナリオでは、プライバシの問題により、ターゲットドメインのモデル適応中にソースデータがアクセスできない場合がある。
本稿では,本問題に対する新たな擬似ラベル付け手法を提案する。
論文 参考訳(メタデータ) (2021-09-19T06:38:21Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Data Augmentation with norm-VAE for Unsupervised Domain Adaptation [26.889303784575805]
我々は,高次元同次特徴空間内の両領域に対して,明示的な領域適応を伴わない統一型分類器を学習する。
提案手法は,SPL(Selective Pseudo-Labelling)技術を用いて,対象領域の未ラベルサンプルを有効活用する。
本稿では,データ拡張戦略として,対象領域の合成特徴を生成する新しい生成モデルノルムVAEを提案する。
論文 参考訳(メタデータ) (2020-12-01T21:41:08Z) - Learning from Scale-Invariant Examples for Domain Adaptation in Semantic
Segmentation [6.320141734801679]
本稿では,自己教師付きドメイン適応のためのセマンティックセグメンテーションモデルのスケール不変性を利用した新しいアプローチを提案する。
我々のアルゴリズムは、一般に、オブジェクトや物のサイズに関係なく、セマンティックなラベリングは変更すべきである、という合理的な仮定に基づいている。
この制約はターゲットドメインのイメージに反し、異なるスケールのパッチ間でラベルの転送に使用できることを示す。
論文 参考訳(メタデータ) (2020-07-28T19:40:45Z) - PERL: Pivot-based Domain Adaptation for Pre-trained Deep Contextualized
Embedding Models [20.62501560076402]
PERL: ピボットベースの微調整によるBERTのような文脈型単語埋め込みモデルを拡張した表現学習モデル。
PerLは22の感情分類ドメイン適応設定で強いベースラインを上回ります。
効果的に縮小サイズのモデルを生成し、モデルの安定性を高める。
論文 参考訳(メタデータ) (2020-06-16T11:14:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。