論文の概要: Semi-supervised Domain Adaptation with Inter and Intra-domain Mixing for
Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2308.15855v1
- Date: Wed, 30 Aug 2023 08:44:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 14:12:08.396045
- Title: Semi-supervised Domain Adaptation with Inter and Intra-domain Mixing for
Semantic Segmentation
- Title(参考訳): 意味セグメンテーションのためのドメイン間およびドメイン内混合による半教師付きドメイン適応
- Authors: Weifu Fu, Qiang Nie, Jialin Li, Yuhuan Lin, Kai Wu, Yong Liu, Chengjie
Wang
- Abstract要約: 半教師付きドメイン適応(SSDA)と呼ばれるより実用的なシナリオが提案されている。
本稿では,制限付き対象データとラベルなし対象データとの間のドメイン内情報を活用することの重要性を強調した。
ドメイン間ミキシングとドメイン内ミキシングから同時に学習することにより、ネットワークはより多くのドメイン不変の特徴をキャプチャし、ターゲットドメインのパフォーマンスを促進することができる。
- 参考スコア(独自算出の注目度): 39.87059846018127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite recent advances in semantic segmentation, an inevitable challenge is
the performance degradation caused by the domain shift in real application.
Current dominant approach to solve this problem is unsupervised domain
adaptation (UDA). However, the absence of labeled target data in UDA is overly
restrictive and limits performance. To overcome this limitation, a more
practical scenario called semi-supervised domain adaptation (SSDA) has been
proposed. Existing SSDA methods are derived from the UDA paradigm and primarily
focus on leveraging the unlabeled target data and source data. In this paper,
we highlight the significance of exploiting the intra-domain information
between the limited labeled target data and unlabeled target data, as it
greatly benefits domain adaptation. Instead of solely using the scarce labeled
data for supervision, we propose a novel SSDA framework that incorporates both
inter-domain mixing and intra-domain mixing, where inter-domain mixing
mitigates the source-target domain gap and intra-domain mixing enriches the
available target domain information. By simultaneously learning from
inter-domain mixing and intra-domain mixing, the network can capture more
domain-invariant features and promote its performance on the target domain. We
also explore different domain mixing operations to better exploit the target
domain information. Comprehensive experiments conducted on the GTA5toCityscapes
and SYNTHIA2Cityscapes benchmarks demonstrate the effectiveness of our method,
surpassing previous methods by a large margin.
- Abstract(参考訳): セマンティックセグメンテーションの最近の進歩にもかかわらず、避けられない課題は、実際のアプリケーションのドメインシフトによるパフォーマンス低下である。
この問題に対する現在の支配的なアプローチは、unsupervised domain adaptation (uda)である。
しかし、UDAにラベル付きターゲットデータがないことは過度に制限され、性能が制限される。
この制限を克服するために、半教師ドメイン適応(ssda)と呼ばれるより実用的なシナリオが提案されている。
既存のSSDAメソッドは、UDAパラダイムから派生したもので、主にラベルのないターゲットデータとソースデータを活用することに焦点を当てている。
本稿では,限定ラベル付き対象データとラベルなし対象データとの間のドメイン内情報を活用することの重要性を強調し,ドメイン適応に大きく貢献する。
そこで本研究では,領域間混合とドメイン内混合の両方を組み込んだ新しいssaフレームワークを提案し,ドメイン間混合はソース・ターゲット領域間ギャップを緩和し,ドメイン内混合は利用可能なターゲット領域情報を豊かにする。
ドメイン間混合とドメイン内混合から同時に学習することで、ネットワークはより多くのドメイン不変な特徴を捉え、ターゲットドメインでの性能を高めることができる。
ターゲットとなるドメイン情報をより活用するために、異なるドメイン混合操作も検討します。
GTA5toCityscapesとSynTHIA2Cityscapesベンチマークで実施した総合的な実験により,提案手法の有効性が示された。
関連論文リスト
- Inter-Domain Mixup for Semi-Supervised Domain Adaptation [108.40945109477886]
半教師付きドメイン適応(SSDA)は、ソースとターゲットのドメイン分布をブリッジすることを目的としており、少数のターゲットラベルが利用可能である。
既存のSSDAの作業は、ソースドメインとターゲットドメインの両方からラベル情報をフル活用して、ドメイン間の機能アライメントに失敗する。
本稿では,新しいSSDA手法であるIDMNE(Inter-domain Mixup with Neighborhood Expansion)を提案する。
論文 参考訳(メタデータ) (2024-01-21T10:20:46Z) - AVATAR: Adversarial self-superVised domain Adaptation network for TARget
domain [11.764601181046496]
本稿では,未ラベル対象領域データの予測のための教師なし領域適応(UDA)手法を提案する。
本稿では,AVATAR(Adversarial Self-superVised Domain Adaptation Network for the TARget domain)アルゴリズムを提案する。
提案手法は,3つのUDAベンチマークにおいて,最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-04-28T20:31:56Z) - Unsupervised Domain Adaptation for COVID-19 Information Service with
Contrastive Adversarial Domain Mixup [11.929914721626849]
新型コロナウイルス(COVID-19)の誤情報検出の現実的な応用において、基本的な課題は、ラベル付き新型コロナウイルスデータの欠如である。
対照的な学習と敵対的なドメイン混在を用いた教師なしのドメイン適応フレームワークを提案する。
本手法は, 未確認の新型コロナウイルス標的領域に誤報検出システムを効果的に適用し, 大幅な改善が期待できる。
論文 参考訳(メタデータ) (2022-10-06T23:29:10Z) - Joint Attention-Driven Domain Fusion and Noise-Tolerant Learning for
Multi-Source Domain Adaptation [2.734665397040629]
マルチソースUnsupervised Domain Adaptationはラベル付きデータを持つ複数のソースドメインからラベル付きターゲットドメインに知識を転送する。
異なるドメインとターゲットドメイン内のノイズの多い擬似ラベル間の分散の相違は、どちらもパフォーマンスのボトルネックにつながる。
本稿では,意識駆動型ドメイン融合(ADNT)と雑音耐性学習(ADNT)を統合し,上記の2つの問題に対処するアプローチを提案する。
論文 参考訳(メタデータ) (2022-08-05T01:08:41Z) - Domain-Agnostic Prior for Transfer Semantic Segmentation [197.9378107222422]
教師なしドメイン適応(UDA)はコンピュータビジョンコミュニティにおいて重要なトピックである。
ドメインに依存しない事前学習(DAP)を用いてドメイン間表現学習を規則化する機構を提案する。
我々の研究は、UDAがより良いプロキシ、おそらく他のデータモダリティの恩恵を受けていることを明らかにしている。
論文 参考訳(メタデータ) (2022-04-06T09:13:25Z) - Semi-supervised Domain Adaptation for Semantic Segmentation [3.946367634483361]
セマンティックセグメンテーションにおけるクロスドメインとイントラドメインのギャップに対処する2段階の半教師付き二重ドメイン適応(SSDDA)手法を提案する。
提案手法は,2つの共通合成-実合成セマンティックセグメンテーションベンチマークにおいて,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-20T16:13:00Z) - IDM: An Intermediate Domain Module for Domain Adaptive Person Re-ID [58.46907388691056]
ソースとターゲットドメイン間のブリッジは、UDA re-IDタスクに対処するために有効である、と我々は主張する。
中間ドメインの表現をオンザフライで生成するための中間ドメインモジュール(IDM)を提案する。
提案手法は,UDAのre-IDタスクに共通するタスクにおいて,最先端のタスクよりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2021-08-05T07:19:46Z) - CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation [1.2691047660244335]
Unsupervised Domain Adaptation (UDA) は、ラベル付きソース分布とラベル付きターゲット分布との整合を目標とし、ドメイン不変な予測モデルを得る。
半教師付きドメイン適応(CLDA)のためのコントラスト学習フレームワークを提案する。
CLDAは上記のすべてのデータセットに対して最先端の結果を達成する。
論文 参考訳(メタデータ) (2021-06-30T20:23:19Z) - Effective Label Propagation for Discriminative Semi-Supervised Domain
Adaptation [76.41664929948607]
半教師付き領域適応(SSDA)法は,大規模な画像分類タスクにおいて大きな可能性を示している。
本稿では、ドメイン間およびドメイン内セマンティック情報を効果的に伝達することにより、この問題に対処する新しい効果的な方法を提案する。
ソースコードと事前訓練されたモデルも間もなくリリースされる予定です。
論文 参考訳(メタデータ) (2020-12-04T14:28:19Z) - MADAN: Multi-source Adversarial Domain Aggregation Network for Domain
Adaptation [58.38749495295393]
ドメイン適応は、あるラベル付きソースドメインと、わずかにラベル付けまたはラベル付けされていないターゲットドメインの間のドメインシフトをブリッジするために、転送可能なモデルを学ぶことを目的としています。
近年のマルチソース領域適応法(MDA)では,ソースとターゲット間の画素レベルのアライメントは考慮されていない。
これらの課題に対処するための新しいMDAフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T21:22:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。