論文の概要: Consistency Regularization for Domain Adaptation
- arxiv url: http://arxiv.org/abs/2208.11084v1
- Date: Tue, 23 Aug 2022 17:07:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 13:32:13.454828
- Title: Consistency Regularization for Domain Adaptation
- Title(参考訳): ドメイン適応のための一貫性規則化
- Authors: Kian Boon Koh and Basura Fernando
- Abstract要約: 教師なし領域適応(UDA)は、実際の画像にモデルを訓練し適応するために、よりアクセスしやすいデータをどのように利用できるかを研究することで、この問題を解決しようとする。
近年のUDA法は,学生と教師のネットワークを用いた画素単位の分類損失の学習による自己学習を適用している。
本稿では,ネットワークの出力要素間の画素間関係をモデル化し,半教師付きUDAに整合性正規化項を追加することを提案する。
- 参考スコア(独自算出の注目度): 17.067348505083327
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collection of real world annotations for training semantic segmentation
models is an expensive process. Unsupervised domain adaptation (UDA) tries to
solve this problem by studying how more accessible data such as synthetic data
can be used to train and adapt models to real world images without requiring
their annotations. Recent UDA methods applies self-learning by training on
pixel-wise classification loss using a student and teacher network. In this
paper, we propose the addition of a consistency regularization term to
semi-supervised UDA by modelling the inter-pixel relationship between elements
in networks' output. We demonstrate the effectiveness of the proposed
consistency regularization term by applying it to the state-of-the-art DAFormer
framework and improving mIoU19 performance on the GTA5 to Cityscapes benchmark
by 0.8 and mIou16 performance on the SYNTHIA to Cityscapes benchmark by 1.2.
- Abstract(参考訳): セマンティックセグメンテーションモデルのトレーニングのための現実世界のアノテーションの収集は、高価なプロセスです。
教師なしドメイン適応(UDA)は、アノテーションを必要とせずに、合成データのようなよりアクセスしやすいデータを使って、実際の画像にモデルを適応させる方法を研究することで、この問題を解決する。
近年のUDA法は,学生と教師のネットワークを用いた画素単位の分類損失の学習による自己学習を適用している。
本稿では,ネットワークの出力要素間の画素間関係をモデル化し,半教師付きUDAに一貫性規則化項を追加することを提案する。
本稿では,最新のDAFormerフレームワークに適用し,GTA5からCityscapesベンチマークのmIoU19性能を0.8倍,SynTHIAからCityscapesベンチマークのmIou16性能を1.2倍に向上させることにより,一貫性規則化項の有効性を示す。
関連論文リスト
- ReCoRe: Regularized Contrastive Representation Learning of World Model [21.29132219042405]
対照的な教師なし学習と介入不変正規化器を用いて不変特徴を学習する世界モデルを提案する。
提案手法は,現状のモデルベースおよびモデルフリーのRL法より優れ,iGibsonベンチマークで評価された分布外ナビゲーションタスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-12-14T15:53:07Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - IDA: Informed Domain Adaptive Semantic Segmentation [51.12107564372869]
クラスレベルのセグメンテーション性能に基づいてデータを混合する自己学習フレームワークであるDomain Informed Adaptation (IDA) モデルを提案する。
IDAモデルでは、クラスレベルの性能を期待信頼スコア(ECS)によって追跡し、動的スケジュールを用いて異なる領域のデータに対する混合比を決定する。
提案手法は,GTA-Vの都市景観への適応において1.1 mIoU,SynTHIAの都市への適応において0.9 mIoUのマージンで,最先端のUDA-SS法よりも優れる。
論文 参考訳(メタデータ) (2023-03-05T18:16:34Z) - One-Shot Domain Adaptive and Generalizable Semantic Segmentation with
Class-Aware Cross-Domain Transformers [96.51828911883456]
セマンティックセグメンテーションのための教師なしのsim-to-realドメイン適応(UDA)は、シミュレーションデータに基づいて訓練されたモデルの実世界のテスト性能を改善することを目的としている。
従来のUDAは、適応のためのトレーニング中に利用可能なラベルのない実世界のサンプルが豊富にあると仮定することが多い。
実世界のデータサンプルが1つしか利用できない,一発の教師なしシム・トゥ・リアル・ドメイン適応(OSUDA)と一般化問題について検討する。
論文 参考訳(メタデータ) (2022-12-14T15:54:15Z) - Refign: Align and Refine for Adaptation of Semantic Segmentation to
Adverse Conditions [78.71745819446176]
Refignは、ドメイン間の通信を利用する自己学習ベースのUDAメソッドへの汎用的な拡張である。
Refign は,(1) 不確実性を認識した高密度マッチングネットワークを用いて,正常条件画像と対応する悪条件画像とを整列させ,(2) 適応ラベル補正機構を用いて正常予測で悪条件予測を精査する。
このアプローチでは、追加のトレーニングパラメータや、トレーニングのみの計算オーバーヘッドの最小化は導入されず、任意の自己学習ベースのUDAメソッドを改善するためにドロップイン拡張として使用することができる。
論文 参考訳(メタデータ) (2022-07-14T11:30:38Z) - Imposing Consistency for Optical Flow Estimation [73.53204596544472]
プロキシタスクによる一貫性の導入は、データ駆動学習を強化することが示されている。
本稿では,光フロー推定のための新しい,効果的な整合性戦略を提案する。
論文 参考訳(メタデータ) (2022-04-14T22:58:30Z) - DAFormer: Improving Network Architectures and Training Strategies for
Domain-Adaptive Semantic Segmentation [99.88539409432916]
教師なしドメイン適応(UDA)プロセスについて検討する。
ベンチマーク結果に基づいて,新しい UDA 手法である DAFormer を提案する。
DAFormerは,GTA->Cityscapesの10.8 mIoU,Synthia->Cityscapesの5.4 mIoUにより,最先端の性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-29T19:00:46Z) - Exploiting Image Translations via Ensemble Self-Supervised Learning for
Unsupervised Domain Adaptation [0.0]
本稿では,複数の画像翻訳,アンサンブル学習,自己教師型学習を組み合わせた非教師なしドメイン適応(UDA)戦略を,一貫したアプローチで導入する。
我々は、ラベル付き合成データとラベル付き実世界のデータに基づいてセマンティックセグメンテーションモデルを訓練するUDAの標準的なタスクの1つに焦点を当てる。
論文 参考訳(メタデータ) (2021-07-13T16:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。