論文の概要: Online Continual Domain Adaptation for Semantic Image Segmentation Using
Internal Representations
- arxiv url: http://arxiv.org/abs/2401.01035v1
- Date: Tue, 2 Jan 2024 04:48:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 14:46:10.697038
- Title: Online Continual Domain Adaptation for Semantic Image Segmentation Using
Internal Representations
- Title(参考訳): 内部表現を用いた意味画像セグメンテーションのためのオンライン連続ドメイン適応
- Authors: Serban Stan, Mohammad Rostami
- Abstract要約: アノテーションのない領域におけるモデル一般化を改善するために,画像のセマンティックセマンティックセマンティックセマンティクスのためのオンラインUDAアルゴリズムを開発した。
確立されたセマンティックセマンティックセマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティックス(SOTA)と比較した。
- 参考スコア(独自算出の注目度): 28.549418215123936
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic segmentation models trained on annotated data fail to generalize
well when the input data distribution changes over extended time period,
leading to requiring re-training to maintain performance. Classic Unsupervised
domain adaptation (UDA) attempts to address a similar problem when there is
target domain with no annotated data points through transferring knowledge from
a source domain with annotated data. We develop an online UDA algorithm for
semantic segmentation of images that improves model generalization on
unannotated domains in scenarios where source data access is restricted during
adaptation. We perform model adaptation is by minimizing the distributional
distance between the source latent features and the target features in a shared
embedding space. Our solution promotes a shared domain-agnostic latent feature
space between the two domains, which allows for classifier generalization on
the target dataset. To alleviate the need of access to source samples during
adaptation, we approximate the source latent feature distribution via an
appropriate surrogate distribution, in this case a Gassian mixture model (GMM).
We evaluate our approach on well established semantic segmentation datasets and
demonstrate it compares favorably against state-of-the-art (SOTA) UDA semantic
segmentation methods.
- Abstract(参考訳): 注釈付きデータでトレーニングされたセマンティックセグメンテーションモデルは、入力データの分散が長期間にわたって変化するとうまく一般化できず、パフォーマンスを維持するために再トレーニングが必要となる。
古典的なunsupervised domain adaptation(uda)は、アノテーテッドデータを持つソースドメインから知識を転送することで、アノテーテッドデータポイントのないターゲットドメインが存在する場合、同様の問題に対処しようとする。
画像のセマンティックセマンティックセグメンテーションのためのオンラインUDAアルゴリズムを開発し、適応中にソースデータアクセスが制限されるシナリオにおいて、無注釈領域のモデル一般化を改善する。
モデル適応は、共有埋め込み空間におけるソース潜在特徴とターゲット特徴との分布距離を最小化することで行う。
提案手法は,2つのドメイン間のドメインに依存しない潜在的特徴空間の共有を促進する。
適応中のソースサンプルへのアクセスの必要性を緩和するため,ガス混合モデル(gmm)を用いて,適切なサロゲート分布を介してソース潜時特徴分布を近似する。
我々は,確立されたセマンティクスセグメンテーションデータセットに対するアプローチを評価し,最新セマンティクスセグメンテーション(sota)手法と比較した。
関連論文リスト
- Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Adapting Off-the-Shelf Source Segmenter for Target Medical Image
Segmentation [12.703234995718372]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインから学習した知識をラベルなしおよび見えないターゲットドメインに転送することを目的としている。
データストレージやプライバシの問題のため、適応段階でのソースドメインデータへのアクセスは制限されることが多い。
我々は、ソースドメインで事前訓練されたオフザシェルフセグメントモデルをターゲットドメインに適用することを提案する。
論文 参考訳(メタデータ) (2021-06-23T16:16:55Z) - Gradual Domain Adaptation via Self-Training of Auxiliary Models [50.63206102072175]
ソースとターゲットドメイン間のギャップを増やすことで、ドメイン適応はより難しくなります。
中間領域のモデルを学習する補助モデル(AuxSelfTrain)の自己学習を提案する。
教師なしおよび半教師付きドメイン適応のベンチマークデータセットの実験は、その有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:15:25Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Source-Free Domain Adaptation for Semantic Segmentation [11.722728148523366]
Unsupervised Domain Adaptation(UDA)は、セマンティックセグメンテーションのための畳み込みニューラルネットワークベースのアプローチがピクセルレベルの注釈付きデータに大きく依存するという課題に取り組むことができる。
そこで本稿では,十分に訓練されたソースモデルとラベルなしのターゲットドメインデータセットのみを適用可能な,意味セグメンテーションのためのソースフリーなドメイン適応フレームワークsfdaを提案する。
論文 参考訳(メタデータ) (2021-03-30T14:14:29Z) - Unsupervised BatchNorm Adaptation (UBNA): A Domain Adaptation Method for
Semantic Segmentation Without Using Source Domain Representations [35.586031601299034]
Unsupervised BatchNorm Adaptation (UBNA) は、与えられた事前訓練されたモデルを、目に見えないターゲットドメインに適応させる。
我々は指数的に減衰する運動量因子を用いて、正規化層統計を対象領域に部分的に適応させる。
標準的なUDAアプローチと比較して、ソースドメイン表現のパフォーマンスと利用のトレードオフを報告します。
論文 参考訳(メタデータ) (2020-11-17T08:37:40Z) - Unsupervised Model Adaptation for Continual Semantic Segmentation [15.820660013260584]
本研究では,ラベル付きソースドメインを用いて訓練されたセマンティックセグメンテーションモデルを,ラベル付きターゲットドメインで適切に一般化するアルゴリズムを開発した。
我々は,アルゴリズムが有効である条件を理論的に分析し,説明する。
ベンチマーク適応タスクの実験では, 共同UDA手法と比較して, 競争性能が向上することを示した。
論文 参考訳(メタデータ) (2020-09-26T04:55:50Z) - Sequential Model Adaptation Using Domain Agnostic Internal Distributions [31.3178953771424]
本研究では、ソースドメインが未注釈のターゲットドメインで一般化するように訓練された分類器を逐次適応するアルゴリズムを開発する。
このモデルは、ソースドメインアノテートされたデータに基づいてトレーニングされており、ソースドメインデータがアクセスできない場合には、ターゲットドメインアンアノテートされたデータを使用して適用する必要があると考えている。
論文 参考訳(メタデータ) (2020-07-01T03:14:17Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。