論文の概要: Refign: Align and Refine for Adaptation of Semantic Segmentation to
Adverse Conditions
- arxiv url: http://arxiv.org/abs/2207.06825v3
- Date: Mon, 3 Jul 2023 19:10:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 00:14:36.914833
- Title: Refign: Align and Refine for Adaptation of Semantic Segmentation to
Adverse Conditions
- Title(参考訳): Refign: セマンティックセグメンテーションの逆条件適応のためのアライメントとリファクション
- Authors: David Bruggemann, Christos Sakaridis, Prune Truong, Luc Van Gool
- Abstract要約: Refignは、ドメイン間の通信を利用する自己学習ベースのUDAメソッドへの汎用的な拡張である。
Refign は,(1) 不確実性を認識した高密度マッチングネットワークを用いて,正常条件画像と対応する悪条件画像とを整列させ,(2) 適応ラベル補正機構を用いて正常予測で悪条件予測を精査する。
このアプローチでは、追加のトレーニングパラメータや、トレーニングのみの計算オーバーヘッドの最小化は導入されず、任意の自己学習ベースのUDAメソッドを改善するためにドロップイン拡張として使用することができる。
- 参考スコア(独自算出の注目度): 78.71745819446176
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the scarcity of dense pixel-level semantic annotations for images
recorded in adverse visual conditions, there has been a keen interest in
unsupervised domain adaptation (UDA) for the semantic segmentation of such
images. UDA adapts models trained on normal conditions to the target
adverse-condition domains. Meanwhile, multiple datasets with driving scenes
provide corresponding images of the same scenes across multiple conditions,
which can serve as a form of weak supervision for domain adaptation. We propose
Refign, a generic extension to self-training-based UDA methods which leverages
these cross-domain correspondences. Refign consists of two steps: (1) aligning
the normal-condition image to the corresponding adverse-condition image using
an uncertainty-aware dense matching network, and (2) refining the adverse
prediction with the normal prediction using an adaptive label correction
mechanism. We design custom modules to streamline both steps and set the new
state of the art for domain-adaptive semantic segmentation on several
adverse-condition benchmarks, including ACDC and Dark Zurich. The approach
introduces no extra training parameters, minimal computational overhead --
during training only -- and can be used as a drop-in extension to improve any
given self-training-based UDA method. Code is available at
https://github.com/brdav/refign.
- Abstract(参考訳): 画像に対する高密度画素レベルのセマンティックアノテーションの欠如により、そのような画像のセマンティックセマンティックセグメンテーションにおいて、教師なし領域適応(UDA)に強い関心が寄せられている。
UDAは、通常の条件で訓練されたモデルをターゲットの悪条件領域に適応させる。
一方、駆動シーンを持つ複数のデータセットは、複数の条件にまたがって同じシーンの対応する画像を提供する。
本稿では,これらのクロスドメイン対応を利用した自己学習型UDA手法の汎用拡張であるRefignを提案する。
Refign は,(1) 不確実性を認識した高密度マッチングネットワークを用いて,正常条件画像と対応する悪条件画像とを整列させ,(2) 適応ラベル補正機構を用いて正常予測で悪条件予測を精査する。
ACDCやダークチューリッヒなど,いくつかの悪条件ベンチマークでドメイン適応セマンティックセマンティックセマンティックセグメンテーションを実現するために,両方のステップを合理化するためのカスタムモジュールを設計する。
このアプローチでは、追加のトレーニングパラメータを導入しず、計算オーバーヘッドを最小限に抑え、任意の自己トレーニングベースのudaメソッドを改善するためのドロップイン拡張として使用できる。
コードはhttps://github.com/brdav/refign.comで入手できる。
関連論文リスト
- Semi-supervised Domain Adaptive Medical Image Segmentation through
Consistency Regularized Disentangled Contrastive Learning [11.049672162852733]
本研究では,医用画像分割のための半教師付き領域適応法(SSDA)について検討した。
本稿では,2段階の学習プロセスを提案する。まず,新しいドメイン・コンテント・ディコンタングル・コントラスト学習(CL)と画素レベルの特徴整合性制約を用いて,自己学習パラダイムでエンコーダを事前学習する。
提案手法がUDA設定で容易に拡張可能であることを実験的に検証し、提案手法の優位性を高める。
論文 参考訳(メタデータ) (2023-07-06T06:13:22Z) - Condition-Invariant Semantic Segmentation [77.10045325743644]
我々は現在最先端のドメイン適応アーキテクチャ上で条件不変セマンティック(CISS)を実装している。
本手法は,通常の都市景観$to$ACDCベンチマークにおいて,2番目に高い性能を実現する。
CISSはBDD100K-nightやACDC-nightのようなトレーニング中に見えない領域によく一般化している。
論文 参考訳(メタデータ) (2023-05-27T03:05:07Z) - Regularizing Self-training for Unsupervised Domain Adaptation via
Structural Constraints [14.593782939242121]
本稿では,従来の自己学習目標を正規化するために,奥行きなどの補助的モーダルから構造的手がかりを取り入れることを提案する。
具体的には、オブジェクトインスタンスの近い領域内でピクセル表現をプルする、対照的なピクセルレベルのオブジェクト性制約を導入する。
セマンティックセグメンテーションのための様々な UDA ベンチマークにおいて,正則化器は最上位の自己学習手法を大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-04-29T00:12:26Z) - Contrastive Model Adaptation for Cross-Condition Robustness in Semantic
Segmentation [58.17907376475596]
意味的セグメンテーションのための正規-逆条件モデル適応について検討する。
提案手法は, コントラスト学習を通じて条件不変の特徴を学習するために, このような画像ペアを利用する。
いくつかの正規-逆適応ベンチマークにおけるモデル適応のための最先端セマンティックセマンティックセマンティクス性能を実現する。
論文 参考訳(メタデータ) (2023-03-09T11:48:29Z) - I2F: A Unified Image-to-Feature Approach for Domain Adaptive Semantic
Segmentation [55.633859439375044]
意味的セグメンテーションのための教師なしドメイン適応(UDA)は、重いアノテーション作業から人々を解放する有望なタスクである。
この問題に対処する主要なアイデアは、画像レベルと特徴レベルの両方を共同で実行することである。
本稿では,画像レベルと特徴レベルを統一したセマンティックセグメンテーションのための新しいUDAパイプラインを提案する。
論文 参考訳(メタデータ) (2023-01-03T15:19:48Z) - Target and Task specific Source-Free Domain Adaptive Image Segmentation [73.78898054277538]
ソースフリー領域適応画像分割のための2段階のアプローチを提案する。
我々は,高エントロピー領域を抑えつつ,ターゲット固有の擬似ラベルを生成することに注力する。
第2段階では、タスク固有の表現にネットワークを適用することに重点を置いている。
論文 参考訳(メタデータ) (2022-03-29T17:50:22Z) - Style Mixing and Patchwise Prototypical Matching for One-Shot
Unsupervised Domain Adaptive Semantic Segmentation [21.01132797297286]
ワンショットの教師なしドメイン適応では、セグメンタはトレーニング中にラベルなしのターゲットイメージを1つしか見ることができない。
このような計算負担を効果的に軽減できるOSUDA法を提案する。
提案手法は,ドメイン適応型セマンティックセグメンテーションのための2つの一般的なベンチマーク上で,最先端性能を実現する。
論文 参考訳(メタデータ) (2021-12-09T02:47:46Z) - Edge-preserving Domain Adaptation for semantic segmentation of Medical
Images [0.0]
ドメイン適応は、目に見えない環境で大量のラベル付きデータの不足に対処する技術である。
本稿では,元の画像のエッジの詳細を維持しつつ,サイクル一貫性損失を用いてドメイン間を適応するモデルを提案する。
2つの眼底血管セグメンテーションデータセットの他のアプローチと比較することにより,本アルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2021-11-18T18:14:33Z) - Phase Consistent Ecological Domain Adaptation [76.75730500201536]
意味的セグメンテーション(意味的セグメンテーション)の課題に焦点をあてる。そこでは、注釈付き合成データが多用されるが、実際のデータへのアノテートは困難である。
視覚心理学に触発された最初の基準は、2つの画像領域間の地図が位相保存であることである。
第2の基準は、照明剤や撮像センサーの特性に関わらず、その画像に現れる環境統計、またはシーン内の規則を活用することを目的としている。
論文 参考訳(メタデータ) (2020-04-10T06:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。