論文の概要: MIC: Masked Image Consistency for Context-Enhanced Domain Adaptation
- arxiv url: http://arxiv.org/abs/2212.01322v1
- Date: Fri, 2 Dec 2022 17:29:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 17:09:17.474861
- Title: MIC: Masked Image Consistency for Context-Enhanced Domain Adaptation
- Title(参考訳): MIC:コンテキスト拡張ドメイン適応のためのマスク付き画像整合性
- Authors: Lukas Hoyer, Dengxin Dai, Haoran Wang, Luc Van Gool
- Abstract要約: 教師なしドメイン適応(UDA)では、ソースデータ(例えば、合成)に基づいて訓練されたモデルは、ターゲットアノテーションにアクセスすることなく、ターゲットデータ(例えば、現実世界)に適応する。
本研究では,対象領域の空間的コンテキスト関係を学習し,UDAを向上するMasked Image Consistency (MIC)モジュールを提案する。
MICは、合成からリアルタイム、日夜、クリア・ツー・リバース・ウェザーUDAの様々な認識タスクにおいて、最先端の性能を著しく向上させる。
- 参考スコア(独自算出の注目度): 104.40114562948428
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In unsupervised domain adaptation (UDA), a model trained on source data (e.g.
synthetic) is adapted to target data (e.g. real-world) without access to target
annotation. Most previous UDA methods struggle with classes that have a similar
visual appearance on the target domain as no ground truth is available to learn
the slight appearance differences. To address this problem, we propose a Masked
Image Consistency (MIC) module to enhance UDA by learning spatial context
relations of the target domain as additional clues for robust visual
recognition. MIC enforces the consistency between predictions of masked target
images, where random patches are withheld, and pseudo-labels that are generated
based on the complete image by an exponential moving average teacher. To
minimize the consistency loss, the network has to learn to infer the
predictions of the masked regions from their context. Due to its simple and
universal concept, MIC can be integrated into various UDA methods across
different visual recognition tasks such as image classification, semantic
segmentation, and object detection. MIC significantly improves the
state-of-the-art performance across the different recognition tasks for
synthetic-to-real, day-to-nighttime, and clear-to-adverse-weather UDA. For
instance, MIC achieves an unprecedented UDA performance of 75.9 mIoU and 92.8%
on GTA-to-Cityscapes and VisDA-2017, respectively, which corresponds to an
improvement of +2.1 and +3.0 percent points over the previous state of the art.
The implementation is available at https://github.com/lhoyer/MIC.
- Abstract(参考訳): unsupervised domain adaptation(uda)では、ソースデータ(例えばsynthetic)に基づいてトレーニングされたモデルは、ターゲットのアノテーションにアクセスせずにターゲットデータ(例えば実世界)に適応される。
従来のUDA手法は、視覚的外観が類似したクラスと競合することが多いが、外観の違いを学習するための基礎的な真実は存在しない。
この問題に対処するために、ターゲット領域の空間的コンテキスト関係を頑健な視覚認識のための追加の手がかりとして学習することにより、UDAを強化するMasked Image Consistency (MIC)モジュールを提案する。
MICは、ランダムパッチが保持されないマスクされたターゲット画像の予測と、指数移動平均教師による完全な画像に基づいて生成された擬似ラベルとの一貫性を強制する。
一貫性損失を最小限に抑えるために、ネットワークは、そのコンテキストからマスキングされた領域の予測を推測することを学ぶ必要がある。
シンプルで普遍的な概念のため、MICは画像分類、セマンティックセグメンテーション、オブジェクト検出など、さまざまな視覚認識タスクにまたがる様々なUDAメソッドに統合することができる。
MICは、合成からリアルタイム、日夜、クリア・ツー・リバース・ウェザーUDAの様々な認識タスクにおいて、最先端の性能を著しく向上させる。
例えば、MICは、GTA-to-Cityscapes と VisDA-2017 の75.9 mIoU と92.8%という前例のない UDA のパフォーマンスを達成した。
実装はhttps://github.com/lhoyer/micで利用可能である。
関連論文リスト
- SiamSeg: Self-Training with Contrastive Learning for Unsupervised Domain Adaptation Semantic Segmentation in Remote Sensing [14.007392647145448]
UDAは、ラベル付きソースドメインデータをトレーニングしながら、ラベルなしのターゲットドメインデータからモデルを学習することを可能にする。
コントラスト学習を UDA に統合し,セマンティック情報を取得する能力を向上させることを提案する。
我々のSimSegメソッドは既存の手法より優れ、最先端の結果が得られます。
論文 参考訳(メタデータ) (2024-10-17T11:59:39Z) - C^2DA: Contrastive and Context-aware Domain Adaptive Semantic Segmentation [11.721696305235767]
教師なしドメイン適応セマンティックセマンティックセグメンテーション(UDA-SS)は、ソースドメインデータ上でモデルをトレーニングし、ターゲットドメインデータの予測にモデルを適応させることを目的としている。
既存のUDA-SSメソッドの多くは、データシフト問題を緩和するためにドメイン間知識のみに焦点を当てている。
ドメイン内知識とコンテキスト認識知識の両方を学習する UDA-SS フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-10T15:51:35Z) - MICDrop: Masking Image and Depth Features via Complementary Dropout for Domain-Adaptive Semantic Segmentation [155.0797148367653]
Unsupervised Domain Adaptation (UDA)は、ラベル付きソースドメインとラベルなしターゲットドメインの間のドメインギャップを埋めるタスクである。
深度不連続性はしばしばセグメンテーション境界と一致するため、幾何学的情報、すなわち深度予測を活用することを提案する。
提案手法は, 様々な UDA 手法にプラグインし, 標準 UDA ベンチマークで連続的に結果を改善することができることを示す。
論文 参考訳(メタデータ) (2024-08-29T12:15:10Z) - Adaptive Face Recognition Using Adversarial Information Network [57.29464116557734]
顔認識モデルは、トレーニングデータがテストデータと異なる場合、しばしば退化する。
本稿では,新たな敵情報ネットワーク(AIN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:14:11Z) - Focus on Your Target: A Dual Teacher-Student Framework for
Domain-adaptive Semantic Segmentation [210.46684938698485]
意味的セグメンテーションのための教師なしドメイン適応(UDA)について検討する。
対象領域からのトレーニングサンプルの割合を減少・増加させることで,「学習能力」が強化・弱まることがわかった。
本稿では,DTS(Double teacher-student)フレームワークを提案し,双方向学習戦略を取り入れた。
論文 参考訳(メタデータ) (2023-03-16T05:04:10Z) - PiPa: Pixel- and Patch-wise Self-supervised Learning for Domain
Adaptative Semantic Segmentation [100.6343963798169]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、学習モデルの他のドメインへの一般化を強化することを目的としている。
そこで我々は,ドメイン適応型セマンティックセマンティックセグメンテーションのための,PiPaという,画素・パッチ対応の自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-14T18:31:24Z) - CLUDA : Contrastive Learning in Unsupervised Domain Adaptation for
Semantic Segmentation [3.4123736336071864]
CLUDAは、意味的セグメンテーションのための教師なしドメイン適応(UDA)を実行するための単純だが斬新な方法である。
エンコーダから多レベル融合特徴写像を抽出し,異なるクラスと異なるドメインに対してコントラストロスを適用した。
GTA $rightarrow$ Cityscapes (74.4 mIOU, +0.6) と Synthia $rightarrow$ Cityscapes (67.2 mIOU, +1.4) のデータセットで最先端の結果を生成する。
論文 参考訳(メタデータ) (2022-08-27T05:13:14Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - Continual Unsupervised Domain Adaptation for Semantic Segmentation [14.160280479726921]
セマンティックセグメンテーションのための教師なしドメイン適応(UDA)は、ピクセルレベルのラベルを得るのが難しい実世界のシナリオに好適に適用されている。
本稿では,新たに設計されたETM(Expanding Target-specific Memory)フレームワークに基づくセマンティックセマンティックセグメンテーションのための連続UDAを提案する。
新たなETMフレームワークには,各対象領域を対象としたTarget-specific Memory (TM) が組み込まれている。
論文 参考訳(メタデータ) (2020-10-19T05:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。