論文の概要: Multi-Head Distillation for Continual Unsupervised Domain Adaptation in
Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2204.11667v1
- Date: Mon, 25 Apr 2022 14:03:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 15:01:00.051328
- Title: Multi-Head Distillation for Continual Unsupervised Domain Adaptation in
Semantic Segmentation
- Title(参考訳): 意味セグメンテーションにおける連続的非教師なし領域適応のための多頭部蒸留
- Authors: Antoine Saporta and Arthur Douillard and Tuan-Hung Vu and Patrick
P\'erez and Matthieu Cord
- Abstract要約: この研究は、連続的 UDA である UDA を学習するための新しいフレームワークに焦点を当てている。
連続学習タスクに固有の破滅的忘れ問題の解法であるマルチヘッド蒸留法(Multi-Head Distillation)を提案する。
- 参考スコア(独自算出の注目度): 38.10483890861357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised Domain Adaptation (UDA) is a transfer learning task which aims
at training on an unlabeled target domain by leveraging a labeled source
domain. Beyond the traditional scope of UDA with a single source domain and a
single target domain, real-world perception systems face a variety of scenarios
to handle, from varying lighting conditions to many cities around the world. In
this context, UDAs with several domains increase the challenges with the
addition of distribution shifts within the different target domains. This work
focuses on a novel framework for learning UDA, continuous UDA, in which models
operate on multiple target domains discovered sequentially, without access to
previous target domains. We propose MuHDi, for Multi-Head Distillation, a
method that solves the catastrophic forgetting problem, inherent in continual
learning tasks. MuHDi performs distillation at multiple levels from the
previous model as well as an auxiliary target-specialist segmentation head. We
report both extensive ablation and experiments on challenging multi-target UDA
semantic segmentation benchmarks to validate the proposed learning scheme and
architecture.
- Abstract(参考訳): Unsupervised Domain Adaptation (UDA)は、ラベル付きソースドメインを利用してラベル付きターゲットドメイン上でトレーニングすることを目的とした、トランスファー学習タスクである。
単一のソースドメインと単一のターゲットドメインを持つ従来のUDAの範囲を超えて、現実世界の知覚システムは、様々な照明条件から世界中の多くの都市まで、さまざまなシナリオに直面する。
この文脈では、複数のドメインを持つUDAは、異なるターゲットドメイン内の分散シフトを追加することで、課題を増大させる。
本研究は,従来の対象ドメインにアクセスせずに,複数の対象ドメインを順次に運用する,uda,continuous udaの学習のための新たなフレームワークに焦点を当てている。
連続学習タスクに固有の破滅的忘れ問題の解法であるマルチヘッド蒸留法(Multi-Head Distillation)を提案する。
muhdiは、前モデルから複数のレベルで蒸留を行い、補助的ターゲット・専門的セグメンテーションヘッドも行う。
提案手法とアーキテクチャを検証するために,多目的UDAセマンティックセマンティックセマンティクスベンチマークの広範なアブレーションと実験を行った。
関連論文リスト
- OurDB: Ouroboric Domain Bridging for Multi-Target Domain Adaptive Semantic Segmentation [8.450397069717727]
セマンティックセグメンテーションのためのマルチターゲットドメイン適応(MTDA)は、異なる分布を持つ複数のターゲットドメインを含むため、大きな課題となる。
従来のMTDAアプローチでは、複数の教師アーキテクチャを採用しており、各教師はタスクを単純化するために1つのターゲットドメインに特化している。
我々は,単一教師アーキテクチャを用いたMTDA問題に対する効率的な解決策を提供する,OurDB(Ouroboric Domain Bridging)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-18T08:55:48Z) - Revisiting the Domain Shift and Sample Uncertainty in Multi-source
Active Domain Transfer [69.82229895838577]
Active Domain Adaptation (ADA)は、アノテートするターゲットデータの限られた数を選択することで、新しいターゲットドメインにおけるモデル適応を最大限に向上することを目的としている。
この設定は、複数のソースからトレーニングデータを収集するより実践的なシナリオを無視します。
これは、ADAを単一のソースドメインから複数のソースドメインに拡張する、新しい、挑戦的な知識転送の設定を目標にしています。
論文 参考訳(メタデータ) (2023-11-21T13:12:21Z) - Student Become Decathlon Master in Retinal Vessel Segmentation via
Dual-teacher Multi-target Domain Adaptation [1.121358474059223]
本稿では,マルチモーダルおよびマルチセンタ網膜画像から網膜血管(RV)をセグメント化するための,新しい教師なしマルチターゲットドメイン適応手法であるRVmsを提案する。
RVms は RV のセグメンテーションの観点からは,ターゲットとする Oracle に非常に近いことが分かっています。
論文 参考訳(メタデータ) (2022-03-07T02:20:14Z) - Multi-Source Unsupervised Domain Adaptation via Pseudo Target Domain [0.0]
マルチソースドメイン適応(MDA)は、複数のソースドメインからラベルのないターゲットドメインに知識を転送することを目的としている。
我々はPseudo Target for MDA(PTMDA)と呼ばれる新しいMDAアプローチを提案する。
PTMDAは、ソースドメインとターゲットドメインの各グループを、メトリック制約付き逆学習を用いて、グループ固有のサブ空間にマッピングする。
PTMDAは全体として、目標誤差を低減し、MDA設定における目標リスクのより優れた近似を導出できることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:37:16Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Discover, Hallucinate, and Adapt: Open Compound Domain Adaptation for
Semantic Segmentation [91.30558794056056]
意味的セグメンテーションのための教師なしドメイン適応(UDA)が近年注目を集めている。
我々は,発見,幻覚,適応の3つの主要な設計原則に基づく新しいフレームワークを提案する。
我々は、標準ベンチマークGTAからC自動運転へのソリューションの評価を行い、新しい最先端の結果を得た。
論文 参考訳(メタデータ) (2021-10-08T13:20:09Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Multi-source Domain Adaptation in the Deep Learning Era: A Systematic
Survey [53.656086832255944]
マルチソースドメイン適応(MDA)は、ラベル付きデータを複数のソースから収集できる強力な拡張である。
MDAは学術と産業の両方で注目を集めている。
論文 参考訳(メタデータ) (2020-02-26T08:07:58Z) - MADAN: Multi-source Adversarial Domain Aggregation Network for Domain
Adaptation [58.38749495295393]
ドメイン適応は、あるラベル付きソースドメインと、わずかにラベル付けまたはラベル付けされていないターゲットドメインの間のドメインシフトをブリッジするために、転送可能なモデルを学ぶことを目的としています。
近年のマルチソース領域適応法(MDA)では,ソースとターゲット間の画素レベルのアライメントは考慮されていない。
これらの課題に対処するための新しいMDAフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T21:22:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。