論文の概要: Multi-level Consistency Learning for Semi-supervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2205.04066v1
- Date: Mon, 9 May 2022 06:41:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 15:45:23.506871
- Title: Multi-level Consistency Learning for Semi-supervised Domain Adaptation
- Title(参考訳): 半教師付きドメイン適応のためのマルチレベル一貫性学習
- Authors: Zizheng Yan, Yushuang Wu, Guanbin Li, Yipeng Qin, Xiaoguang Han,
Shuguang Cui
- Abstract要約: 半教師付きドメイン適応(SSDA)は、完全にラベル付けされたソースドメインから学習した知識をわずかにラベル付けされたターゲットドメインに適用することを目的としている。
SSDAのための多レベル一貫性学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 85.90600060675632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised domain adaptation (SSDA) aims to apply knowledge learned from
a fully labeled source domain to a scarcely labeled target domain. In this
paper, we propose a Multi-level Consistency Learning (MCL) framework for SSDA.
Specifically, our MCL regularizes the consistency of different views of target
domain samples at three levels: (i) at inter-domain level, we robustly and
accurately align the source and target domains using a prototype-based optimal
transport method that utilizes the pros and cons of different views of target
samples; (ii) at intra-domain level, we facilitate the learning of both
discriminative and compact target feature representations by proposing a novel
class-wise contrastive clustering loss; (iii) at sample level, we follow
standard practice and improve the prediction accuracy by conducting a
consistency-based self-training. Empirically, we verified the effectiveness of
our MCL framework on three popular SSDA benchmarks, i.e., VisDA2017, DomainNet,
and Office-Home datasets, and the experimental results demonstrate that our MCL
framework achieves the state-of-the-art performance.
- Abstract(参考訳): 半教師付きドメイン適応(SSDA)は、完全なラベル付きソースドメインから学習した知識を少ないラベル付きターゲットドメインに適用することを目的としている。
本稿では,SSDAのためのMCL(Multi-level Consistency Learning)フレームワークを提案する。
特に、私たちのmclは、ターゲットドメインサンプルの異なるビューの一貫性を3つのレベルに定めています。
(i) ドメイン間レベルでは、ターゲットサンプルの異なるビューの長所と短所を利用するプロトタイプベースの最適輸送手法を用いて、ソースとターゲットドメインを堅牢かつ正確に整列する。
(ii)ドメイン内レベルでは、新しいクラス間コントラストクラスタリング損失を提案することにより、識別的およびコンパクトな特徴表現の学習を容易にする。
(iii) サンプルレベルでは, 一貫性に基づく自己学習を行うことで, 標準実践に従い, 予測精度を向上させる。
実証的に、我々は3つの人気のあるssdaベンチマーク(visda2017、domainnet、office-homeデータセット)におけるmclフレームワークの有効性を検証し、mclフレームワークが最先端のパフォーマンスを達成することを実証した。
関連論文リスト
- Joint semi-supervised and contrastive learning enables zero-shot domain-adaptation and multi-domain segmentation [1.5393913074555419]
SegCLRは、さまざまなドメインにまたがってボリューム画像を分割するために設計された汎用的なフレームワークである。
総合評価により,SegCLRの優れた性能を示す。
論文 参考訳(メタデータ) (2024-05-08T18:10:59Z) - Semi-supervised Domain Adaptation via Prototype-based Multi-level
Learning [4.232614032390374]
半教師付きドメイン適応(SSDA)では、各クラスのいくつかのラベル付きターゲットサンプルが、完全なラベル付きソースドメインからターゲットドメインへの知識表現の転送を支援する。
本稿では,ラベル付き対象サンプルの可能性をうまく活用するために,プロトタイプベースのマルチレベル学習(ProML)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-04T10:09:30Z) - IDA: Informed Domain Adaptive Semantic Segmentation [51.12107564372869]
クラスレベルのセグメンテーション性能に基づいてデータを混合する自己学習フレームワークであるDomain Informed Adaptation (IDA) モデルを提案する。
IDAモデルでは、クラスレベルの性能を期待信頼スコア(ECS)によって追跡し、動的スケジュールを用いて異なる領域のデータに対する混合比を決定する。
提案手法は,GTA-Vの都市景観への適応において1.1 mIoU,SynTHIAの都市への適応において0.9 mIoUのマージンで,最先端のUDA-SS法よりも優れる。
論文 参考訳(メタデータ) (2023-03-05T18:16:34Z) - Generalized Semantic Segmentation by Self-Supervised Source Domain
Projection and Multi-Level Contrastive Learning [79.0660895390689]
ソースドメインでトレーニングされたディープネットワークは、未確認のターゲットドメインデータでテストした場合、パフォーマンスが低下している。
汎用セマンティックセグメンテーションのためのドメイン・プロジェクションとコントラシブ・ラーニング(DPCL)手法を提案する。
論文 参考訳(メタデータ) (2023-03-03T13:07:14Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Semi-supervised Domain Adaptation for Semantic Segmentation [3.946367634483361]
セマンティックセグメンテーションにおけるクロスドメインとイントラドメインのギャップに対処する2段階の半教師付き二重ドメイン適応(SSDDA)手法を提案する。
提案手法は,2つの共通合成-実合成セマンティックセグメンテーションベンチマークにおいて,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-20T16:13:00Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Domain Adaptation by Class Centroid Matching and Local Manifold
Self-Learning [8.316259570013813]
本稿では,対象領域のデータ分散構造を徹底的に探索できる新しい領域適応手法を提案する。
対象領域内の同一クラスタ内のサンプルを個人ではなく全体とみなし、クラスセントロイドマッチングにより擬似ラベルを対象クラスタに割り当てる。
提案手法の目的関数を理論的収束保証を用いて解くために,効率的な反復最適化アルゴリズムを設計した。
論文 参考訳(メタデータ) (2020-03-20T16:59:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。