論文の概要: Rethinking Unsupervised Domain Adaptation for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2207.00067v3
- Date: Mon, 22 Jan 2024 12:24:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 00:29:43.058918
- Title: Rethinking Unsupervised Domain Adaptation for Semantic Segmentation
- Title(参考訳): セマンティックセグメンテーションのための教師なしドメイン適応の再考
- Authors: Zhijie Wang, Masanori Suganuma, Takayuki Okatani
- Abstract要約: 教師なしドメイン適応(Unsupervised domain adapt、UDA)は、ラベルなしデータのみを使用して、あるドメインでトレーニングされたモデルを新しいドメイン(ターゲットと呼ばれる)に適応させる。
同じデータを同じモデルの教師付きトレーニング(ファインタニングなど)に使用する場合はどうか検討する。
- 参考スコア(独自算出の注目度): 23.494998016272813
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised domain adaptation (UDA) adapts a model trained on one domain
(called source) to a novel domain (called target) using only unlabeled data.
Due to its high annotation cost, researchers have developed many UDA methods
for semantic segmentation, which assume no labeled sample is available in the
target domain. We question the practicality of this assumption for two reasons.
First, after training a model with a UDA method, we must somehow verify the
model before deployment. Second, UDA methods have at least a few
hyper-parameters that need to be determined. The surest solution to these is to
evaluate the model using validation data, i.e., a certain amount of labeled
target-domain samples. This question about the basic assumption of UDA leads us
to rethink UDA from a data-centric point of view. Specifically, we assume we
have access to a minimum level of labeled data. Then, we ask how much is
necessary to find good hyper-parameters of existing UDA methods. We then
consider what if we use the same data for supervised training of the same
model, e.g., finetuning. We conducted experiments to answer these questions
with popular scenarios, {GTA5, SYNTHIA}$\rightarrow$Cityscapes. We found that
i) choosing good hyper-parameters needs only a few labeled images for some UDA
methods whereas a lot more for others; and ii) simple finetuning works
surprisingly well; it outperforms many UDA methods if only several dozens of
labeled images are available.
- Abstract(参考訳): 教師なしドメイン適応(Unsupervised domain adapt、UDA)は、ラベルなしデータのみを使用して、あるドメイン(ソースと呼ばれる)でトレーニングされたモデルを新しいドメイン(ターゲットと呼ばれる)に適応させる。
アノテーションのコストが高いため、研究者はセマンティックセグメンテーションのための多くのUDA手法を開発しており、ターゲットドメインでラベル付きサンプルが利用できないと仮定している。
この仮定の実用性には2つの理由がある。
まず、udaメソッドでモデルをトレーニングした後、デプロイ前にどうにかモデルを検証する必要があります。
第二に、UDA法は、決定される必要のあるいくつかのハイパーパラメータを持つ。
最も確実な解決策は、検証データ、すなわち一定の量のラベル付きターゲットドメインサンプルを用いてモデルを評価することである。
UDAの基本前提に関するこの疑問は、データ中心の観点からUDAを再考するきっかけとなります。
具体的には、最低レベルのラベル付きデータにアクセスできると仮定します。
そして、既存のUDAメソッドの優れたハイパーパラメータを見つけるのにどのくらい必要か尋ねる。
そして、同じデータを同じモデルの教師付きトレーニング、例えば微調整に利用したらどうなるかを考える。
一般的なシナリオである{gta5, synthia}$\rightarrow$cityscapesでこれらの質問に答える実験を行った。
私たちはそれを見つけました
i) 優れたハイパーパラメータを選択するには、いくつかのudaメソッドのラベル付きイメージしか必要ありません。
ii) 単純な微調整は驚くほどうまく機能し、数十のラベル付き画像が利用可能であれば、多くのUDAメソッドよりも優れている。
関連論文リスト
- AdaNPC: Exploring Non-Parametric Classifier for Test-Time Adaptation [64.9230895853942]
ドメインの一般化は、ターゲットのドメイン情報を活用することなく、任意に困難にすることができる。
この問題に対処するためにテスト時適応(TTA)手法が提案されている。
本研究では,テスト時間適応(AdaNPC)を行うためにNon-Parametricを採用する。
論文 参考訳(メタデータ) (2023-04-25T04:23:13Z) - Source-Free Unsupervised Domain Adaptation with Norm and Shape
Constraints for Medical Image Segmentation [0.12183405753834559]
医用画像セグメンテーションのための非教師なし領域適応法(SFUDA)を提案する。
エントロピー最小化法に加えて、ターゲット領域における特徴ノルムを回避する損失関数を導入する。
提案手法は,すべてのデータセットにおいて最先端の手法より優れている。
論文 参考訳(メタデータ) (2022-09-03T00:16:39Z) - Domain Alignment Meets Fully Test-Time Adaptation [24.546705919244936]
デプロイされたMLモデルの基本的な要件は、トレーニングとは異なるテストディストリビューションから引き出されたデータに一般化することである。
本稿では,元のソースデータへのアクセスを制限した,この問題の難易度に焦点をあてる。
ソースデータ全体にアクセスする必要性を緩和し,UDAとFTTAを橋渡しする新しいアプローチCATTAnを提案する。
論文 参考訳(メタデータ) (2022-07-09T03:17:19Z) - Back to the Source: Diffusion-Driven Test-Time Adaptation [77.4229736436935]
テスト時間適応はテスト入力を利用し、シフトしたターゲットデータ上でテストした場合、ソースデータに基づいてトレーニングされたモデルの精度を向上させる。
代わりに、生成拡散モデルを用いて、すべてのテスト入力をソース領域に向けて投影することで、ターゲットデータを更新する。
論文 参考訳(メタデータ) (2022-07-07T17:14:10Z) - UMAD: Universal Model Adaptation under Domain and Category Shift [138.12678159620248]
Universal Model Adaptation (UMAD)フレームワークは、ソースデータにアクセスせずに両方のUDAシナリオを処理する。
未知のサンプルと未知のサンプルを識別するのに役立つ情報整合性スコアを開発した。
オープンセットおよびオープンパーティルセット UDA シナリオの実験では、UMAD が最先端のデータ依存手法に匹敵する性能を示した。
論文 参考訳(メタデータ) (2021-12-16T01:22:59Z) - A Survey of Unsupervised Domain Adaptation for Visual Recognition [2.8935588665357077]
ドメイン適応(DA)は、あるドメインから別のドメインに知識を移す際のドメインシフト問題を緩和することを目的としています。
Unsupervised DA (UDA) はラベル付きソースドメインとラベルなしターゲットドメインを扱う。
論文 参考訳(メタデータ) (2021-12-13T15:55:23Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Open-Set Hypothesis Transfer with Semantic Consistency [99.83813484934177]
本稿では,対象データの変換における意味的一貫性に着目した手法を提案する。
本モデルはまず,自信ある予測を発見し,擬似ラベルを用いた分類を行う。
その結果、ラベルなしデータは、ソースクラスまたは未知のクラスに一致した識別クラスに分類される。
論文 参考訳(メタデータ) (2020-10-01T10:44:31Z) - Keep it Simple: Image Statistics Matching for Domain Adaptation [0.0]
ドメイン適応(英: Domain Adaptation, DA)とは、未ラベル画像のみが対象領域から利用可能である場合に検出精度を維持する手法である。
最近の最先端の手法は、敵の訓練戦略を用いて領域ギャップを減らそうとしている。
そこで本研究では,色ヒストグラムと平均画像の共分散を対象領域に合わせることを提案する。
近年の手法と比較して,より簡単な訓練手法を用いて最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-05-26T07:32:09Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。