論文の概要: Style Blind Domain Generalized Semantic Segmentation via Covariance
Alignment and Semantic Consistence Contrastive Learning
- arxiv url: http://arxiv.org/abs/2403.06122v1
- Date: Sun, 10 Mar 2024 07:44:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 08:33:08.808654
- Title: Style Blind Domain Generalized Semantic Segmentation via Covariance
Alignment and Semantic Consistence Contrastive Learning
- Title(参考訳): 共分散アライメントと意味構成コントラスト学習によるスタイルブラインド領域一般化意味セグメンテーション
- Authors: Woo-Jin Ahn, Geun-Yeong Yang, Hyun-Duck Choi, and Myo-Taeg Lim
- Abstract要約: BlindNetは、外部モジュールやデータセットなしでスタイルを無視する新しいDGSSアプローチである。
BlindNetは、共分散アライメントとセマンティックコントラスト学習という2つの重要なコンポーネントで構成されている。
提案手法は既存のDGSS手法よりも優れており,未確認対象ドメインに対するセマンティックセグメンテーションの堅牢性と優れた性能を示す。
- 参考スコア(独自算出の注目度): 1.8749305679160366
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning models for semantic segmentation often experience performance
degradation when deployed to unseen target domains unidentified during the
training phase. This is mainly due to variations in image texture (\ie style)
from different data sources. To tackle this challenge, existing domain
generalized semantic segmentation (DGSS) methods attempt to remove style
variations from the feature. However, these approaches struggle with the
entanglement of style and content, which may lead to the unintentional removal
of crucial content information, causing performance degradation. This study
addresses this limitation by proposing BlindNet, a novel DGSS approach that
blinds the style without external modules or datasets. The main idea behind our
proposed approach is to alleviate the effect of style in the encoder whilst
facilitating robust segmentation in the decoder. To achieve this, BlindNet
comprises two key components: covariance alignment and semantic consistency
contrastive learning. Specifically, the covariance alignment trains the encoder
to uniformly recognize various styles and preserve the content information of
the feature, rather than removing the style-sensitive factor. Meanwhile,
semantic consistency contrastive learning enables the decoder to construct
discriminative class embedding space and disentangles features that are
vulnerable to misclassification. Through extensive experiments, our approach
outperforms existing DGSS methods, exhibiting robustness and superior
performance for semantic segmentation on unseen target domains.
- Abstract(参考訳): セマンティックセグメンテーションのためのディープラーニングモデルは、トレーニングフェーズ中に未確認のターゲットドメインにデプロイされた場合、パフォーマンス劣化を経験することが多い。
これは主に異なるデータソースからのイメージテクスチャ(\ieスタイル)の変化によるものである。
この課題に対処するために、既存のドメイン一般化セマンティックセマンティックセマンティクス(DGSS)メソッドは、その機能からスタイルのバリエーションを取り除こうとする。
しかし、これらのアプローチはスタイルとコンテンツの絡み合いに苦しむため、重要なコンテンツ情報が意図せず削除され、パフォーマンスが低下する可能性がある。
本研究では,外部モジュールやデータセットを使わずにスタイルをブラインドする新しいdssアプローチであるblindnetを提案することで,この制限に対処する。
提案手法の背景にある主な考え方は、デコーダの堅牢なセグメンテーションを容易にしながら、エンコーダのスタイルの効果を緩和することである。
これを実現するためにBlindNetは,共分散アライメントとセマンティックコントラスト学習という,2つの重要なコンポーネントで構成されている。
具体的には、共分散アライメントはエンコーダに、スタイルに敏感な要素を取り除くのではなく、様々なスタイルを統一的に認識し、特徴の内容情報を保存するように訓練する。
一方、意味的一貫性の対比学習により、デコーダはクラス埋め込み空間を識別的に構築でき、誤分類に弱い特徴を分離することができる。
大規模な実験を通じて,本手法は既存のDGSS手法より優れており,未確認対象ドメインに対するセマンティックセグメンテーションの堅牢性と優れた性能を示す。
関連論文リスト
- Language-Driven Visual Consensus for Zero-Shot Semantic Segmentation [114.72734384299476]
本稿では,言語駆動型ビジュアルコンセンサス(LDVC)アプローチを提案する。
クラス埋め込みを、その離散的で抽象的な性質からアンカーとして活用し、クラス埋め込みに向けて視覚的特徴を操る。
我々の手法は、目に見えないクラスに対するセグメンテーションモデルの能力を大幅に向上させる。
論文 参考訳(メタデータ) (2024-03-13T11:23:55Z) - SEER-ZSL: Semantic Encoder-Enhanced Representations for Generalized
Zero-Shot Learning [0.7420433640907689]
一般化ゼロショット学習(GZSL)は、見知らぬクラスから知識を伝達することで、目に見えないクラスを認識する。
本稿では,一般化ギャップに対処するための二重戦略を提案する。
論文 参考訳(メタデータ) (2023-12-20T15:18:51Z) - CLIP the Gap: A Single Domain Generalization Approach for Object
Detection [60.20931827772482]
単一ドメインの一般化(Single Domain Generalization)は、単一のソースドメイン上でモデルをトレーニングすることで、目に見えないターゲットドメインに一般化する問題に取り組む。
本稿では、事前学習された視覚言語モデルを用いて、テキストプロンプトを介して意味領域の概念を導入することを提案する。
本手法は,検出器のバックボーンから抽出した特徴に作用する意味的拡張戦略と,テキストに基づく分類損失によって実現される。
論文 参考訳(メタデータ) (2023-01-13T12:01:18Z) - Unsupervised Domain Adaptation via Style-Aware Self-intermediate Domain [52.783709712318405]
非教師なしドメイン適応(UDA)は、ラベル豊富なソースドメインから関連するがラベルのないターゲットドメインに知識を伝達する、かなりの注目を集めている。
本研究では,大規模なドメインギャップと伝達知識を橋渡しし,クラス非ネイティブ情報の損失を軽減するために,SAFF(style-aware feature fusion)法を提案する。
論文 参考訳(メタデータ) (2022-09-05T10:06:03Z) - Style Interleaved Learning for Generalizable Person Re-identification [69.03539634477637]
DG ReIDトレーニングのための新しいスタイルインターリーブラーニング(IL)フレームワークを提案する。
従来の学習戦略とは異なり、ILには2つの前方伝播と1つの後方伝播が組み込まれている。
我々のモデルはDG ReIDの大規模ベンチマークにおいて最先端の手法を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-07-07T07:41:32Z) - Cluster-based Contrastive Disentangling for Generalized Zero-Shot
Learning [25.92340532509084]
Generalized Zero-Shot Learning (GZSL) は、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
本稿では,クラスタベースのContrastive Disentangling(CCD)手法を提案する。
論文 参考訳(メタデータ) (2022-03-05T02:50:12Z) - Learning Aligned Cross-Modal Representation for Generalized Zero-Shot
Classification [17.177622259867515]
一般化ゼロショット分類(GZSC)のためのアラインド・クロスモーダル表現(adigned Cross-Modal Representations, ACMR)の学習による革新的オートエンコーダネットワークを提案する。
具体的には,学習型分類器によって導かれる潜在部分空間上でのクロスモーダルな潜在特徴のアライメントを強化するために,新しい視覚・セマンティックアライメント(VSA)法を提案する。
さらに,潜伏変数の識別能力を高めるとともに,潜伏変数が崩壊する可能性を低減するための新しい情報拡張モジュール (IEM) を提案する。
論文 参考訳(メタデータ) (2021-12-24T03:35:37Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Unsupervised Domain Adaptation in Semantic Segmentation via Orthogonal
and Clustered Embeddings [25.137859989323537]
本稿では,機能クラスタリング手法に基づく効果的なUnsupervised Domain Adaptation(UDA)戦略を提案する。
識別的クラスタリング性能を高めるために,2つの新しい学習目標を導入する。
論文 参考訳(メタデータ) (2020-11-25T10:06:22Z) - Affinity Space Adaptation for Semantic Segmentation Across Domains [57.31113934195595]
本稿では,意味的セグメンテーションにおける教師なしドメイン適応(UDA)の問題に対処する。
ソースドメインとターゲットドメインが不変なセマンティック構造を持つという事実に触発され、ドメイン間におけるそのような不変性を活用することを提案する。
親和性空間適応戦略として,親和性空間の洗浄と親和性空間アライメントという2つの方法を開発した。
論文 参考訳(メタデータ) (2020-09-26T10:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。