論文の概要: Exploiting Domain Properties in Language-Driven Domain Generalization for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2512.03508v1
- Date: Wed, 03 Dec 2025 06:58:38 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:01:18.627944
- Title: Exploiting Domain Properties in Language-Driven Domain Generalization for Semantic Segmentation
- Title(参考訳): セマンティックセグメンテーションのための言語駆動型ドメイン一般化におけるドメイン特性の爆発的展開
- Authors: Seogkyu Jeon, Kibeom Hong, Hyeran Byun,
- Abstract要約: セマンティックセマンティックセグメンテーションのための新しいドメイン一般化フレームワーク、すなわちドメイン対応のPrompt駆動のMasked Transformer(DPMFormer)を提案する。
まず,視覚とテキスト間のセマンティックアライメントを促進するために,ドメイン認識型プロンプト学習を導入する。
そこで本研究では,観測可能な領域を多様化するテクスチャ摂動とともに,ドメインを意識したコントラスト学習を提案する。
- 参考スコア(独自算出の注目度): 16.081767698947186
- License:
- Abstract: Recent domain generalized semantic segmentation (DGSS) studies have achieved notable improvements by distilling semantic knowledge from Vision-Language Models (VLMs). However, they overlook the semantic misalignment between visual and textual contexts, which arises due to the rigidity of a fixed context prompt learned on a single source domain. To this end, we present a novel domain generalization framework for semantic segmentation, namely Domain-aware Prompt-driven Masked Transformer (DPMFormer). Firstly, we introduce domain-aware prompt learning to facilitate semantic alignment between visual and textual cues. To capture various domain-specific properties with a single source dataset, we propose domain-aware contrastive learning along with the texture perturbation that diversifies the observable domains. Lastly, to establish a framework resilient against diverse environmental changes, we have proposed the domain-robust consistency learning which guides the model to minimize discrepancies of prediction from original and the augmented images. Through experiments and analyses, we demonstrate the superiority of the proposed framework, which establishes a new state-of-the-art on various DGSS benchmarks. The code is available at https://github.com/jone1222/DPMFormer.
- Abstract(参考訳): 近年のドメイン一般化セマンティックセマンティックセグメンテーション(DGSS)研究は、ビジョン・ランゲージ・モデル(VLM)から意味知識を蒸留することによって顕著な改善を遂げている。
しかし、視覚的コンテキストとテキスト的コンテキストのセマンティックなミスアライメントは、1つのソースドメインで学習した固定されたコンテキストの剛性によって生じる。
そこで本研究では,ドメイン認識型 Prompt-driven Masked Transformer (DPMFormer) という,セマンティックセマンティックセグメンテーションのための新しいドメイン一般化フレームワークを提案する。
まず,視覚とテキスト間のセマンティックアライメントを促進するために,ドメイン認識型プロンプト学習を導入する。
そこで本研究では,観測可能な領域を多様化するテクスチャ摂動とともに,ドメインを意識したコントラスト学習を提案する。
最後に,多様な環境変化に対して耐性のある枠組みを確立するために,原画像と拡張画像との差を最小限に抑えるため,モデルを指導するドメイン・ロバスト整合学習を提案する。
実験と分析を通じて,様々なDGSSベンチマークに新たな最先端技術を確立するフレームワークの優位性を実証する。
コードはhttps://github.com/jone1222/DPMFormer.comで入手できる。
関連論文リスト
- Exploring Semantic Consistency and Style Diversity for Domain Generalized Semantic Segmentation [4.850207292777464]
ドメイン一般化セマンティック(Domain Generalized Semantic)は、未知のターゲットドメイン間のセマンティックセグメンテーションの一般化を強化することを目的としている。
本稿では,セマンティック一貫性予測とスタイル多様性の一般化のためのSCSDを紹介する。
SCSDは既存の最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-12-16T18:20:06Z) - Boosting Large Language Models with Continual Learning for Aspect-based Sentiment Analysis [33.86086075084374]
アスペクトベース感情分析(ABSA)は感情分析の重要なサブタスクである。
ABSAのための大規模言語モデルに基づく連続学習(textttLLM-CL)モデルを提案する。
論文 参考訳(メタデータ) (2024-05-09T02:00:07Z) - Domain-Agnostic Mutual Prompting for Unsupervised Domain Adaptation [27.695825570272874]
従来のUnsupervised Domain Adaptation (UDA)は、ドメイン間の分散の差を最小限にしようと努力している。
ドメイン非依存型Multual Prompting (DAMP) を提案する。
3つのUDAベンチマークの実験は、最先端のアプローチよりもDAMPの方が優れていることを示した。
論文 参考訳(メタデータ) (2024-03-05T12:06:48Z) - Unified Domain Adaptive Semantic Segmentation [105.05235403072021]
Unsupervised Adaptive Domain Semantic (UDA-SS)は、ラベル付きソースドメインからラベル付きターゲットドメインに監督を移すことを目的としている。
本稿では,特徴量と特徴量との相違に対処するQuad-directional Mixup(QuadMix)法を提案する。
提案手法は,4つの挑戦的UDA-SSベンチマークにおいて,最先端の成果を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2023-11-22T09:18:49Z) - Aggregation of Disentanglement: Reconsidering Domain Variations in
Domain Generalization [9.577254317971933]
ドメイン変種には、下流のタスクに有用な情報、すなわち分類対応情報も含まれている、と我々は主張する。
本稿では,ドメインエキスパートの特徴をソース・ドメイン・イメージから切り離すために,DDN(Domain Disentanglement Network)と呼ばれる新しいパラダイムを提案する。
また、ドメインの専門家がよりバランスよく分離可能な機能空間を形成するための、新しい対照的な学習方法を提案します。
論文 参考訳(メタデータ) (2023-02-05T09:48:57Z) - Domain Invariant Masked Autoencoders for Self-supervised Learning from
Multi-domains [73.54897096088149]
マルチドメインからの自己教師型学習のためのドメイン不変のMasked AutoEncoder (DiMAE)を提案する。
中心となる考え方は、入力画像を異なるドメインからのスタイルノイズで拡張し、拡張イメージの埋め込みからイメージを再構築することである。
PACSとDomainNetの実験は、最近の最先端の手法と比較して、DiMAEがかなりの利益を得ていることを示している。
論文 参考訳(メタデータ) (2022-05-10T09:49:40Z) - Structured Latent Embeddings for Recognizing Unseen Classes in Unseen
Domains [108.11746235308046]
本稿では,異なる領域からの画像を投影することで,ドメインに依存しない遅延埋め込みを学習する手法を提案する。
挑戦的なDomainNetとDomainNet-LSベンチマークの実験は、既存のメソッドよりもアプローチの方が優れていることを示している。
論文 参考訳(メタデータ) (2021-07-12T17:57:46Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Cluster, Split, Fuse, and Update: Meta-Learning for Open Compound Domain
Adaptive Semantic Segmentation [102.42638795864178]
セマンティックセグメンテーションのための原則的メタラーニングに基づくOCDAアプローチを提案する。
対象ドメインを複数のサブターゲットドメインに,教師なしの方法で抽出した画像スタイルでクラスタリングする。
その後、メタラーニングがデプロイされ、スタイルコードに条件付きでサブターゲットドメイン固有の予測を融合するように学習される。
モデルに依存しないメタラーニング(MAML)アルゴリズムにより,モデルをオンライン更新することを学び,一般化をさらに改善する。
論文 参考訳(メタデータ) (2020-12-15T13:21:54Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。