論文の概要: Condition-Invariant Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2305.17349v1
- Date: Sat, 27 May 2023 03:05:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 20:02:15.676678
- Title: Condition-Invariant Semantic Segmentation
- Title(参考訳): 条件不変意味セグメンテーション
- Authors: Christos Sakaridis, David Bruggemann, Fisher Yu, Luc Van Gool
- Abstract要約: 従来の研究は、ほとんどの特徴レベル適応法は、通常-逆条件レベル適応において限界ゲインを与えることを示した。
本稿では,ネットワークのエンコーダが抽出した深い特徴を,各入力画像のオリジナルとスタイリズされたビューから整列させることで,特徴レベルの適応を行う上で,スタイリゼーションを活用することを提案する。
本研究では,トップパフォーマンスドメイン適応アーキテクチャ上で,条件不変セマンティック(CISS)と呼ばれる手法を実装した。
- 参考スコア(独自算出の注目度): 87.60567077563353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adaptation of semantic segmentation networks to different visual conditions
from those for which ground-truth annotations are available at training is
vital for robust perception in autonomous cars and robots. However, previous
work has shown that most feature-level adaptation methods, which employ
adversarial training and are validated on synthetic-to-real adaptation, provide
marginal gains in normal-to-adverse condition-level adaptation, being
outperformed by simple pixel-level adaptation via stylization. Motivated by
these findings, we propose to leverage stylization in performing feature-level
adaptation by aligning the deep features extracted by the encoder of the
network from the original and the stylized view of each input image with a
novel feature invariance loss. In this way, we encourage the encoder to extract
features that are invariant to the style of the input, allowing the decoder to
focus on parsing these features and not on further abstracting from the
specific style of the input. We implement our method, named Condition-Invariant
Semantic Segmentation (CISS), on the top-performing domain adaptation
architecture and demonstrate a significant improvement over previous
state-of-the-art methods both on Cityscapes$\to$ACDC and Cityscapes$\to$Dark
Zurich adaptation. In particular, CISS is ranked first among all published
unsupervised domain adaptation methods on the public ACDC leaderboard. Our
method is also shown to generalize well to domains unseen during training,
outperforming competing domain adaptation approaches on BDD100K-night and
Nighttime Driving. Code is publicly available at https://github.com/SysCV/CISS .
- Abstract(参考訳): 自律走行車やロボットのロバストな知覚には,訓練時に地中アノテーションが利用可能なものと異なる視覚条件にセマンティックセグメンテーションネットワークを適応させることが不可欠である。
しかし, 従来の研究では, 対角的訓練を施し, 合成対現実的適応で検証されるほとんどの特徴レベル適応法は, 通常の対逆条件レベル適応において限界ゲインを与え, 単純な画素レベルの適応法よりもスタイリゼーションにより優れていた。
これらの結果から,ネットワークのエンコーダが抽出した深い特徴と,各入力画像のスタイリングされたビューとを新たな特徴分散損失に整合させることにより,特徴レベルの適応を行う上でのスタイル化を活用することを提案する。
このようにして、エンコーダは入力のスタイルに不変な特徴を抽出し、デコーダは入力の特定のスタイルからさらに抽象化するのではなく、これらの特徴を解析することに集中できるようにする。
提案手法である条件不変セマンティクスセグメンテーション (ciss) を最上位のドメイン適応アーキテクチャ上に実装し, cityscapes$\to$acdc と cityscapes$\to$dark zurich adapt の両方において,従来の最先端手法よりも大幅に改善することを示す。
特に、CISSは、パブリックなACDCリーダーボードで公表されたすべての非教師なしドメイン適応手法の中で、第1位である。
また, BDD100K-night やナイトタイム・ドライビングにおいて, 競合する領域適応アプローチよりも優れていることを示す。
コードはhttps://github.com/SysCV/CISSで公開されている。
関連論文リスト
- Physically Feasible Semantic Segmentation [58.17907376475596]
最先端セマンティックセグメンテーションモデルは通常、データ駆動方式で最適化される。
本手法は,空間的クラス関係を規定する明示的な物理的制約を抽出する。
PhyFeaは、使用する最先端ネットワーク毎にmIoUが大幅に向上する。
論文 参考訳(メタデータ) (2024-08-26T22:39:08Z) - Intra- & Extra-Source Exemplar-Based Style Synthesis for Improved Domain
Generalization [21.591831983223997]
セマンティックセグメンテーションにおけるドメインの一般化を改善するために,先進的なスタイル合成パイプラインを提案する。
提案手法は,StyleGAN2インバージョンのためのマスク付きノイズエンコーダに基づく。
データシフトの種類によって、ドライブシーンセマンティックセマンティックセグメンテーションの最大12.4%のmIoU改善を実現しています。
論文 参考訳(メタデータ) (2023-07-02T19:56:43Z) - Contrastive Model Adaptation for Cross-Condition Robustness in Semantic
Segmentation [58.17907376475596]
意味的セグメンテーションのための正規-逆条件モデル適応について検討する。
提案手法は, コントラスト学習を通じて条件不変の特徴を学習するために, このような画像ペアを利用する。
いくつかの正規-逆適応ベンチマークにおけるモデル適応のための最先端セマンティックセマンティックセマンティクス性能を実現する。
論文 参考訳(メタデータ) (2023-03-09T11:48:29Z) - P{\O}DA: Prompt-driven Zero-shot Domain Adaptation [27.524962843495366]
我々は,対象領域の自然言語,すなわちプロンプトの一般的な記述のみを用いて,ソースドメイン上で訓練されたモデルを適用する。
本稿では,これらのプロンプト駆動による拡張が,セマンティックセグメンテーションのためのゼロショットドメイン適応の実行に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-06T18:59:58Z) - Refign: Align and Refine for Adaptation of Semantic Segmentation to
Adverse Conditions [78.71745819446176]
Refignは、ドメイン間の通信を利用する自己学習ベースのUDAメソッドへの汎用的な拡張である。
Refign は,(1) 不確実性を認識した高密度マッチングネットワークを用いて,正常条件画像と対応する悪条件画像とを整列させ,(2) 適応ラベル補正機構を用いて正常予測で悪条件予測を精査する。
このアプローチでは、追加のトレーニングパラメータや、トレーニングのみの計算オーバーヘッドの最小化は導入されず、任意の自己学習ベースのUDAメソッドを改善するためにドロップイン拡張として使用することができる。
論文 参考訳(メタデータ) (2022-07-14T11:30:38Z) - DGSS : Domain Generalized Semantic Segmentation using Iterative Style
Mining and Latent Representation Alignment [38.05196030226661]
現在の最先端技術 (SoTA) では、領域ギャップを埋める異なるメカニズムが提案されているが、低い照明条件下では性能が良くない。
本稿では、まず、スタイリングされた画像とソース画像のドメインギャップを最大化する対角的スタイルを識別する2段階のフレームワークを提案する。
そこで我々は,異なるスタイルの同一物体を混合して新たな訓練画像を構築するスタイル混合機構を提案する。
論文 参考訳(メタデータ) (2022-02-26T13:54:57Z) - HSVA: Hierarchical Semantic-Visual Adaptation for Zero-Shot Learning [74.76431541169342]
ゼロショット学習(ZSL)は、目に見えないクラス認識の問題に取り組み、目に見えないクラスから目に見えないクラスに意味的な知識を移す。
本稿では,意味領域と視覚領域を協調させる新しい階層型意味視覚適応(HSVA)フレームワークを提案する。
4つのベンチマークデータセットの実験では、HSVAは従来のZSLと一般的なZSLの両方で優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-30T14:27:50Z) - Self-supervised Augmentation Consistency for Adapting Semantic
Segmentation [56.91850268635183]
本稿では,実用的かつ高精度な意味セグメンテーションのためのドメイン適応手法を提案する。
私たちは標準データ拡張技術である$-$フォトメトリックノイズ、フリップとスケーリング$-$を採用し、セマンティック予測の一貫性を保証する。
適応後の最先端セグメンテーション精度を大幅に改善し、バックボーンアーキテクチャと適応シナリオの異なる選択に整合性を持たせる。
論文 参考訳(メタデータ) (2021-04-30T21:32:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。