論文の概要: Masked Feature Modeling Enhances Adaptive Segmentation
- arxiv url: http://arxiv.org/abs/2509.13801v1
- Date: Wed, 17 Sep 2025 08:16:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.781735
- Title: Masked Feature Modeling Enhances Adaptive Segmentation
- Title(参考訳): Masked Feature Modelingは適応セグメンテーションを促進する
- Authors: Wenlve Zhou, Zhiheng Zhou, Tiantao Xian, Yikui Zhai, Weibin Wu, Biyun Ma,
- Abstract要約: Masked Feature Modeling (MFM) は機能マスキングと再構成を行う新しい補助タスクである。
MFMは学習目標をメインセグメンテーションタスクと整合させ、DeepLabやDAFormerといった標準アーキテクチャとの互換性を確保する。
効率的な再構築を容易にするために,推論時に共同で訓練されるが破棄される軽量補助モジュールであるRebuilderを導入する。
- 参考スコア(独自算出の注目度): 9.279607578922683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation (UDA) for semantic segmentation aims to transfer models from a labeled source domain to an unlabeled target domain. While auxiliary self-supervised tasks-particularly contrastive learning-have improved feature discriminability, masked modeling approaches remain underexplored in this setting, largely due to architectural incompatibility and misaligned optimization objectives. We propose Masked Feature Modeling (MFM), a novel auxiliary task that performs feature masking and reconstruction directly in the feature space. Unlike existing masked modeling methods that reconstruct low-level inputs or perceptual features (e.g., HOG or visual tokens), MFM aligns its learning target with the main segmentation task, ensuring compatibility with standard architectures like DeepLab and DAFormer without modifying the inference pipeline. To facilitate effective reconstruction, we introduce a lightweight auxiliary module, Rebuilder, which is trained jointly but discarded during inference, adding zero computational overhead at test time. Crucially, MFM leverages the segmentation decoder to classify the reconstructed features, tightly coupling the auxiliary objective with the pixel-wise prediction task to avoid interference with the primary task. Extensive experiments across various architectures and UDA benchmarks demonstrate that MFM consistently enhances segmentation performance, offering a simple, efficient, and generalizable strategy for unsupervised domain-adaptive semantic segmentation.
- Abstract(参考訳): セグメンテーションのための教師なしドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインにモデルを転送することを目的としている。
補助的な自己監督型タスク-特に対照的な学習-は特徴の識別性を改善したが、マスク付きモデリングアプローチは、主にアーキテクチャ上の不整合性と不整合最適化の目的のために、この設定では未探索のままである。
本稿では,機能マスキングと再構成を行う新しい補助タスクであるMasked Feature Modeling (MFM)を提案する。
低レベルの入力や知覚機能(例えばHOGやビジュアルトークン)を再構築する既存のマスク付きモデリング手法とは異なり、MFMは学習対象をメインセグメンテーションタスクと整列させ、推論パイプラインを変更することなくDeepLabやDAFormerのような標準アーキテクチャとの互換性を確保する。
効率的な再構築を容易にするために,テスト時に計算オーバーヘッドをゼロにすることなく,推論時に共同で訓練されるが破棄される軽量補助モジュールであるRebuilderを導入する。
重要なことに、MFMはセグメント化デコーダを利用して再構成された特徴を分類し、補助目的と画素単位の予測タスクを密結合し、一次タスクへの干渉を避ける。
様々なアーキテクチャとUDAベンチマークにわたる大規模な実験により、MFMは、教師なしドメイン適応セマンティックセマンティックセマンティックセマンティクスのためのシンプルで効率的で一般化可能な戦略を提供する、セマンティクス性能を一貫して向上することを示した。
関連論文リスト
- Feature-Space Planes Searcher: A Universal Domain Adaptation Framework for Interpretability and Computational Efficiency [7.889121135601528]
現在の教師なし領域適応法は微調整特徴抽出器に依存している。
領域適応フレームワークとしてFPS(Feature-space Planes Searcher)を提案する。
FPSは最先端の手法と比較して,競争力や性能に優れることを示す。
論文 参考訳(メタデータ) (2025-08-26T05:39:21Z) - Semi-supervised Semantic Segmentation with Multi-Constraint Consistency Learning [81.02648336552421]
本稿では,エンコーダとデコーダの段階的拡張を容易にするためのマルチ制約一貫性学習手法を提案する。
自己適応型特徴マスキングとノイズ注入は、デコーダの堅牢な学習のための特徴を摂動させるために、インスタンス固有の方法で設計されている。
Pascal VOC2012およびCityscapesデータセットの実験結果から,提案したMCCLが新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2025-03-23T03:21:33Z) - A Plug-and-Play Method for Rare Human-Object Interactions Detection by Bridging Domain Gap [50.079224604394]
textbfContext-textbfEnhanced textbfFeature textbfAment (CEFA) と呼ばれる新しいモデルに依存しないフレームワークを提案する。
CEFAは機能アライメントモジュールとコンテキスト拡張モジュールで構成される。
本手法は, 稀なカテゴリにおけるHOIモデルの検出性能を向上させるために, プラグアンドプレイモジュールとして機能する。
論文 参考訳(メタデータ) (2024-07-31T08:42:48Z) - Continual-MAE: Adaptive Distribution Masked Autoencoders for Continual Test-Time Adaptation [49.827306773992376]
連続的テスト時間適応(CTTA)は、ソース事前学習モデルから目標分布の連続的な変化に移行するために提案される。
提案手法は,CTTAタスクの分類とセグメンテーションの両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-19T15:34:52Z) - MRFP: Learning Generalizable Semantic Segmentation from Sim-2-Real with Multi-Resolution Feature Perturbation [2.0293118701268154]
本稿では,ドメイン固有の細粒度特徴と粗い特徴の摂動スタイルをランダム化するための,MRFP(Multi Resolution Feature Perturbation)手法を提案する。
MRFPは最先端のディープニューラルネットワークで、シミュレーションから実際のセマンティックセグメンテーションのための堅牢なドメイン不変機能を学ぶのに役立つ。
論文 参考訳(メタデータ) (2023-11-30T08:02:49Z) - Mitigate Domain Shift by Primary-Auxiliary Objectives Association for
Generalizing Person ReID [39.98444065846305]
ReIDモデルは、インスタンス分類の目的に関するトレーニングを通じてのみドメイン不変表現を学ぶのに苦労します。
本稿では,弱いラベル付き歩行者唾液度検出のための補助学習目標を用いて,プライマリReIDインスタンス分類目標のモデル学習を指導する手法を提案する。
我々のモデルは、最近のテストタイムダイアグラムで拡張してPAOA+を形成し、補助的な目的に対してオンザフライ最適化を行うことができる。
論文 参考訳(メタデータ) (2023-10-24T15:15:57Z) - Activation Modulation and Recalibration Scheme for Weakly Supervised
Semantic Segmentation [24.08326440298189]
弱教師付きセマンティックセグメンテーションのための新しいアクティベーション変調と再校正手法を提案する。
PASCAL VOC 2012データセット上で,AMRが新たな最先端パフォーマンスを確立することを示す。
また,本手法はプラグアンドプレイであり,他の手法と組み合わせて性能向上を図ることが可能であることを実験により明らかにした。
論文 参考訳(メタデータ) (2021-12-16T16:26:14Z) - Progressive Self-Guided Loss for Salient Object Detection [102.35488902433896]
画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
論文 参考訳(メタデータ) (2021-01-07T07:33:38Z) - Towards Adaptive Semantic Segmentation by Progressive Feature Refinement [16.40758125170239]
セグメンテーションネットワークの転送可能性を高めるために,ドメイン逆学習とともに,革新的なプログレッシブな特徴改善フレームワークを提案する。
その結果、ソース・ドメイン・イメージで訓練されたセグメンテーション・モデルは、大幅な性能劣化を伴わずにターゲット・ドメインに転送できる。
論文 参考訳(メタデータ) (2020-09-30T04:17:48Z) - Unsupervised Instance Segmentation in Microscopy Images via Panoptic
Domain Adaptation and Task Re-weighting [86.33696045574692]
病理組織像における教師なし核分割のためのCycle Consistency Panoptic Domain Adaptive Mask R-CNN(CyC-PDAM)アーキテクチャを提案する。
まず,合成画像中の補助的な生成物を除去するための核塗布機構を提案する。
第二に、ドメイン識別器を持つセマンティックブランチは、パンプトレベルのドメイン適応を実現するように設計されている。
論文 参考訳(メタデータ) (2020-05-05T11:08:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。