論文の概要: Unsupervised Model Adaptation for Continual Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2009.12518v2
- Date: Sat, 9 Jan 2021 08:09:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 08:18:01.769262
- Title: Unsupervised Model Adaptation for Continual Semantic Segmentation
- Title(参考訳): 連続意味セグメンテーションのための教師なしモデル適応
- Authors: Serban Stan, Mohammad Rostami
- Abstract要約: 本研究では,ラベル付きソースドメインを用いて訓練されたセマンティックセグメンテーションモデルを,ラベル付きターゲットドメインで適切に一般化するアルゴリズムを開発した。
我々は,アルゴリズムが有効である条件を理論的に分析し,説明する。
ベンチマーク適応タスクの実験では, 共同UDA手法と比較して, 競争性能が向上することを示した。
- 参考スコア(独自算出の注目度): 15.820660013260584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop an algorithm for adapting a semantic segmentation model that is
trained using a labeled source domain to generalize well in an unlabeled target
domain. A similar problem has been studied extensively in the unsupervised
domain adaptation (UDA) literature, but existing UDA algorithms require access
to both the source domain labeled data and the target domain unlabeled data for
training a domain agnostic semantic segmentation model. Relaxing this
constraint enables a user to adapt pretrained models to generalize in a target
domain, without requiring access to source data. To this end, we learn a
prototypical distribution for the source domain in an intermediate embedding
space. This distribution encodes the abstract knowledge that is learned from
the source domain. We then use this distribution for aligning the target domain
distribution with the source domain distribution in the embedding space. We
provide theoretical analysis and explain conditions under which our algorithm
is effective. Experiments on benchmark adaptation task demonstrate our method
achieves competitive performance even compared with joint UDA approaches.
- Abstract(参考訳): 我々は,ラベル付きソースドメインを用いて学習した意味セグメンテーションモデルを適用し,ラベルなしターゲットドメインでよく一般化するアルゴリズムを開発した。
同様の問題はunsupervised domain adaptation (uda)の文献で広く研究されているが、既存のudaアルゴリズムでは、ソースドメインラベル付きデータとターゲットドメインラベルなしデータの両方にアクセスして、ドメインに依存しないセマンティクスセグメンテーションモデルをトレーニングする必要がある。
この制約を緩和することで、ソースデータへのアクセスを必要とせずに、事前訓練されたモデルをターゲットドメインに一般化することができる。
この目的のために、中間埋め込み空間におけるソースドメインの原型分布を学習する。
この分布は、ソースドメインから学んだ抽象的な知識を符号化する。
次に、この分布を用いて、対象領域分布を埋め込み空間内のソース領域分布と整合させる。
我々は,アルゴリズムが有効である条件を理論的に分析し,説明する。
ベンチマーク適応タスクの実験では, 共同UDA手法と比較して, 競争性能が向上することを示した。
関連論文リスト
- Online Continual Domain Adaptation for Semantic Image Segmentation Using
Internal Representations [28.549418215123936]
アノテーションのない領域におけるモデル一般化を改善するために,画像のセマンティックセマンティックセマンティックセマンティクスのためのオンラインUDAアルゴリズムを開発した。
確立されたセマンティックセマンティックセマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティックス(SOTA)と比較した。
論文 参考訳(メタデータ) (2024-01-02T04:48:49Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Domain-Agnostic Prior for Transfer Semantic Segmentation [197.9378107222422]
教師なしドメイン適応(UDA)はコンピュータビジョンコミュニティにおいて重要なトピックである。
ドメインに依存しない事前学習(DAP)を用いてドメイン間表現学習を規則化する機構を提案する。
我々の研究は、UDAがより良いプロキシ、おそらく他のデータモダリティの恩恵を受けていることを明らかにしている。
論文 参考訳(メタデータ) (2022-04-06T09:13:25Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Source-Free Domain Adaptation for Semantic Segmentation [11.722728148523366]
Unsupervised Domain Adaptation(UDA)は、セマンティックセグメンテーションのための畳み込みニューラルネットワークベースのアプローチがピクセルレベルの注釈付きデータに大きく依存するという課題に取り組むことができる。
そこで本稿では,十分に訓練されたソースモデルとラベルなしのターゲットドメインデータセットのみを適用可能な,意味セグメンテーションのためのソースフリーなドメイン適応フレームワークsfdaを提案する。
論文 参考訳(メタデータ) (2021-03-30T14:14:29Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Unsupervised BatchNorm Adaptation (UBNA): A Domain Adaptation Method for
Semantic Segmentation Without Using Source Domain Representations [35.586031601299034]
Unsupervised BatchNorm Adaptation (UBNA) は、与えられた事前訓練されたモデルを、目に見えないターゲットドメインに適応させる。
我々は指数的に減衰する運動量因子を用いて、正規化層統計を対象領域に部分的に適応させる。
標準的なUDAアプローチと比較して、ソースドメイン表現のパフォーマンスと利用のトレードオフを報告します。
論文 参考訳(メタデータ) (2020-11-17T08:37:40Z) - Sequential Model Adaptation Using Domain Agnostic Internal Distributions [31.3178953771424]
本研究では、ソースドメインが未注釈のターゲットドメインで一般化するように訓練された分類器を逐次適応するアルゴリズムを開発する。
このモデルは、ソースドメインアノテートされたデータに基づいてトレーニングされており、ソースドメインデータがアクセスできない場合には、ターゲットドメインアンアノテートされたデータを使用して適用する必要があると考えている。
論文 参考訳(メタデータ) (2020-07-01T03:14:17Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。