論文の概要: ML-BPM: Multi-teacher Learning with Bidirectional Photometric Mixing for
Open Compound Domain Adaptation in Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2207.09045v1
- Date: Tue, 19 Jul 2022 03:30:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 13:49:55.583420
- Title: ML-BPM: Multi-teacher Learning with Bidirectional Photometric Mixing for
Open Compound Domain Adaptation in Semantic Segmentation
- Title(参考訳): ml-bpm: セマンティクスセグメンテーションにおけるオープン複合ドメイン適応のための双方向測光混合によるマルチティーシェラー学習
- Authors: Fei Pan, Sungsu Hur, Seokju Lee, Junsik Kim, In So Kweon
- Abstract要約: オープン化合物ドメイン適応(OCDA)は、ターゲットドメインを複数の未知の同質体の化合物とみなしている。
目的とするサブドメインに適応するために,双方向光度ミキシングを用いたマルチテキサフレームワークを提案する。
適応蒸留を行い、学生モデルを学習し、整合性正規化を適用して生徒の一般化を改善する。
- 参考スコア(独自算出の注目度): 78.19743899703052
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open compound domain adaptation (OCDA) considers the target domain as the
compound of multiple unknown homogeneous subdomains. The goal of OCDA is to
minimize the domain gap between the labeled source domain and the unlabeled
compound target domain, which benefits the model generalization to the unseen
domains. Current OCDA for semantic segmentation methods adopt manual domain
separation and employ a single model to simultaneously adapt to all the target
subdomains. However, adapting to a target subdomain might hinder the model from
adapting to other dissimilar target subdomains, which leads to limited
performance. In this work, we introduce a multi-teacher framework with
bidirectional photometric mixing to separately adapt to every target subdomain.
First, we present an automatic domain separation to find the optimal number of
subdomains. On this basis, we propose a multi-teacher framework in which each
teacher model uses bidirectional photometric mixing to adapt to one target
subdomain. Furthermore, we conduct an adaptive distillation to learn a student
model and apply consistency regularization to improve the student
generalization. Experimental results on benchmark datasets show the efficacy of
the proposed approach for both the compound domain and the open domains against
existing state-of-the-art approaches.
- Abstract(参考訳): オープン化合物ドメイン適応(OCDA)は、ターゲットドメインを複数の未知の同種サブドメインの複合体とみなしている。
OCDAの目標は、ラベル付けされたソースドメインとラベル付けされていない複合ターゲットドメインの間のドメインギャップを最小限に抑えることである。
セマンティックセグメンテーションのための現在のOCDAは、手動のドメイン分離を採用し、すべてのターゲットサブドメインに同時に適応するために単一のモデルを採用している。
しかし、ターゲットサブドメインへの適応は、モデルが他の異なるターゲットサブドメインへの適応を妨げる可能性があるため、パフォーマンスが制限される。
そこで本研究では,双方向測光混合を用いたマルチティーチャーフレームワークを導入し,各サブドメインに個別に適応する。
まず、最適なサブドメイン数を求めるために、自動ドメイン分離を提案する。
そこで,本稿では,各教師モデルが双方向光メトリック混合を用いて1つの対象サブドメインに適応するマルチティーチャーフレームワークを提案する。
さらに, 適応蒸留を行い, 学生モデルを学習し, 整合性正規化を適用し, 生徒の一般化を改善する。
ベンチマークデータセットによる実験結果から,既存の最先端アプローチに対する複合ドメインとオープンドメインの両方に対する提案手法の有効性が示された。
関連論文リスト
- Multi-Source Collaborative Gradient Discrepancy Minimization for
Federated Domain Generalization [27.171533040583117]
Federated Domain Generalizationは、複数の分散ソースドメインからドメイン不変モデルを学び、目に見えないターゲットドメインにデプロイすることを目的としている。
フェデレートされた領域一般化のためのマルチソース協調グラディエント離散最小化法(MCGDM)を提案する。
論文 参考訳(メタデータ) (2024-01-05T01:21:37Z) - IDM: An Intermediate Domain Module for Domain Adaptive Person Re-ID [58.46907388691056]
ソースとターゲットドメイン間のブリッジは、UDA re-IDタスクに対処するために有効である、と我々は主張する。
中間ドメインの表現をオンザフライで生成するための中間ドメインモジュール(IDM)を提案する。
提案手法は,UDAのre-IDタスクに共通するタスクにおいて,最先端のタスクよりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2021-08-05T07:19:46Z) - CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation [1.2691047660244335]
Unsupervised Domain Adaptation (UDA) は、ラベル付きソース分布とラベル付きターゲット分布との整合を目標とし、ドメイン不変な予測モデルを得る。
半教師付きドメイン適応(CLDA)のためのコントラスト学習フレームワークを提案する。
CLDAは上記のすべてのデータセットに対して最先端の結果を達成する。
論文 参考訳(メタデータ) (2021-06-30T20:23:19Z) - Domain Consistency Regularization for Unsupervised Multi-source Domain
Adaptive Classification [57.92800886719651]
近年,深層学習に基づくマルチソース非教師付きドメイン適応(MUDA)が活発に研究されている。
MUDAのドメインシフトは、ソースドメインとターゲットドメインの間だけでなく、複数のソースドメインの間にも存在します。
本稿では、教師なしマルチソースドメイン適応分類において、ドメインの一貫性規則化を利用するエンドツーエンドのトレーニング可能なネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-16T07:29:27Z) - Multi-Source Domain Adaptation with Collaborative Learning for Semantic
Segmentation [32.95273803359897]
マルチソース非監視ドメイン適応(MSDA)は、複数のラベル付きソースドメインで訓練されたモデルをラベル付きターゲットドメインに適応することを目的とする。
セマンティックセグメンテーションのための協調学習に基づく新しいマルチソースドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T12:51:42Z) - Cluster, Split, Fuse, and Update: Meta-Learning for Open Compound Domain
Adaptive Semantic Segmentation [102.42638795864178]
セマンティックセグメンテーションのための原則的メタラーニングに基づくOCDAアプローチを提案する。
対象ドメインを複数のサブターゲットドメインに,教師なしの方法で抽出した画像スタイルでクラスタリングする。
その後、メタラーニングがデプロイされ、スタイルコードに条件付きでサブターゲットドメイン固有の予測を融合するように学習される。
モデルに依存しないメタラーニング(MAML)アルゴリズムにより,モデルをオンライン更新することを学び,一般化をさらに改善する。
論文 参考訳(メタデータ) (2020-12-15T13:21:54Z) - MADAN: Multi-source Adversarial Domain Aggregation Network for Domain
Adaptation [58.38749495295393]
ドメイン適応は、あるラベル付きソースドメインと、わずかにラベル付けまたはラベル付けされていないターゲットドメインの間のドメインシフトをブリッジするために、転送可能なモデルを学ぶことを目的としています。
近年のマルチソース領域適応法(MDA)では,ソースとターゲット間の画素レベルのアライメントは考慮されていない。
これらの課題に対処するための新しいMDAフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T21:22:00Z) - Bi-Directional Generation for Unsupervised Domain Adaptation [61.73001005378002]
教師なしのドメイン適応は、確立されたソースドメイン情報に依存するラベルなしのターゲットドメインを促進する。
従来の手法では、潜在空間におけるドメインの不一致を強制的に低減することで、本質的なデータ構造が破壊される。
本稿では、2つの中間領域をブリッジソースとターゲットドメインに補間する一貫した分類器を用いた双方向生成ドメイン適応モデルを提案する。
論文 参考訳(メタデータ) (2020-02-12T09:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。