論文の概要: Generating Reliable Pixel-Level Labels for Source Free Domain Adaptation
- arxiv url: http://arxiv.org/abs/2307.00893v1
- Date: Mon, 3 Jul 2023 09:44:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 13:39:09.507399
- Title: Generating Reliable Pixel-Level Labels for Source Free Domain Adaptation
- Title(参考訳): ソースフリードメイン適応のための信頼性の高い画素レベルラベルの生成
- Authors: Gabriel Tjio, Ping Liu, Yawei Luo, Chee Keong Kwoh, Joey Zhou Tianyi
- Abstract要約: ReGENは、画像間翻訳ネットワークとセグメンテーションネットワークとを備える。
我々のワークフローは、元のターゲット領域画像からノイズ予測を用いてターゲットライクな画像を生成する。
- 参考スコア(独自算出の注目度): 13.913151437401472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work addresses the challenging domain adaptation setting in which
knowledge from the labelled source domain dataset is available only from the
pretrained black-box segmentation model. The pretrained model's predictions for
the target domain images are noisy because of the distributional differences
between the source domain data and the target domain data. Since the model's
predictions serve as pseudo labels during self-training, the noise in the
predictions impose an upper bound on model performance. Therefore, we propose a
simple yet novel image translation workflow, ReGEN, to address this problem.
ReGEN comprises an image-to-image translation network and a segmentation
network. Our workflow generates target-like images using the noisy predictions
from the original target domain images. These target-like images are
semantically consistent with the noisy model predictions and therefore can be
used to train the segmentation network. In addition to being semantically
consistent with the predictions from the original target domain images, the
generated target-like images are also stylistically similar to the target
domain images. This allows us to leverage the stylistic differences between the
target-like images and the target domain image as an additional source of
supervision while training the segmentation model. We evaluate our model with
two benchmark domain adaptation settings and demonstrate that our approach
performs favourably relative to recent state-of-the-art work. The source code
will be made available.
- Abstract(参考訳): この研究は、ラベル付きソースドメインデータセットからの知識を事前訓練されたブラックボックスセグメンテーションモデルからのみ利用できる、挑戦的なドメイン適応設定に対処する。
対象領域画像に対する事前学習されたモデルの予測は、ソース領域データと対象領域データとの分布的差異のため、うるさい。
モデルの予測は自己学習中に擬似ラベルとして機能するため、予測のノイズはモデル性能に上限を課す。
そこで本研究では,この問題を解決するために,単純ながら斬新な画像翻訳ワークフローであるReGENを提案する。
ReGENは、画像間翻訳ネットワークとセグメンテーションネットワークとを備える。
我々のワークフローは、元のターゲット領域画像からノイズ予測を用いてターゲットライクな画像を生成する。
これらのターゲットライクな画像はノイズモデル予測と意味的に一致するため、セグメンテーションネットワークのトレーニングに使用できる。
生成されたターゲットライクな画像は、元のターゲットドメイン画像からの予測と意味的に整合するだけでなく、ターゲットドメイン画像とスティリスティックに類似している。
これにより、セグメンテーションモデルを訓練しながら、ターゲットライクな画像と対象のドメインイメージのスタイル的差異を追加の監督源として活用することができる。
我々は2つのベンチマークドメイン適応設定でモデルを評価し,最近の最新技術と比較して,このアプローチが好適に機能することを示す。
ソースコードは公開される予定だ。
関連論文リスト
- Hybrid diffusion models: combining supervised and generative pretraining for label-efficient fine-tuning of segmentation models [55.2480439325792]
そこで本研究では,第1領域における画像のデノベーションとマスク予測を同時に行うことを目的とした,新しいプレテキストタスクを提案する。
提案手法を用いて事前学習したモデルを微調整すると、教師なしまたは教師なしの事前学習を用いて訓練した類似モデルの微調整よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2024-08-06T20:19:06Z) - ZoDi: Zero-Shot Domain Adaptation with Diffusion-Based Image Transfer [13.956618446530559]
本稿では,ZoDiと呼ばれる拡散モデルに基づくゼロショット領域適応手法を提案する。
まず,原画像の領域を対象領域に転送することで,対象画像の合成にオフ・ザ・シェルフ拡散モデルを用いる。
次に、元の表現でソース画像と合成画像の両方を用いてモデルを訓練し、ドメイン・ロバスト表現を学習する。
論文 参考訳(メタデータ) (2024-03-20T14:58:09Z) - Phrase Grounding-based Style Transfer for Single-Domain Generalized
Object Detection [109.58348694132091]
単一ドメインの一般化オブジェクト検出は、複数の未確認対象ドメインに対するモデルの一般化性を高めることを目的としている。
これは、ターゲットのドメインデータをトレーニングに組み込むことなく、ドメインシフトに対処するモデルを必要とするため、実用的だが難しいタスクである。
そこで我々は,課題に対する新しい文節接頭辞に基づくスタイル伝達手法を提案する。
論文 参考訳(メタデータ) (2024-02-02T10:48:43Z) - Adapt Anything: Tailor Any Image Classifiers across Domains And
Categories Using Text-to-Image Diffusion Models [82.95591765009105]
我々は,現代テキスト・画像拡散モデルが,ドメインやカテゴリ間でタスク適応型画像分類器をカスタマイズできるかどうかを検討することを目的とする。
対象のテキストプロンプトから派生したカテゴリラベルを用いた画像合成には,1つのオフ・ザ・シェルフテキスト・ツー・イメージモデルのみを用いる。
論文 参考訳(メタデータ) (2023-10-25T11:58:14Z) - One-shot Unsupervised Domain Adaptation with Personalized Diffusion
Models [15.590759602379517]
ラベル付きソースドメインからターゲットドメインへのセグメンテーションモデルの適用は、ドメイン適応において最も難しい問題の1つである。
テキストと画像の拡散モデルを用いて、写真リアル画像を用いた合成ターゲットデータセットを生成する。
実験の結果,本手法は最先端OSUDA法を最大7.1%超えることがわかった。
論文 参考訳(メタデータ) (2023-03-31T14:16:38Z) - Source-Free Domain Adaptive Fundus Image Segmentation with Denoised
Pseudo-Labeling [56.98020855107174]
ドメイン適応は通常、ソースドメインデータにアクセスして、ターゲットデータとのドメインアライメントのために配布情報を利用する必要があります。
多くの実世界のシナリオでは、プライバシの問題により、ターゲットドメインのモデル適応中にソースデータがアクセスできない場合がある。
本稿では,本問題に対する新たな擬似ラベル付け手法を提案する。
論文 参考訳(メタデータ) (2021-09-19T06:38:21Z) - PixMatch: Unsupervised Domain Adaptation via Pixelwise Consistency
Training [4.336877104987131]
教師なしドメイン適応はセマンティックセグメンテーションの有望なテクニックである。
対象領域整合性訓練の概念に基づく非監視領域適応のための新しいフレームワークを提案する。
私たちのアプローチはシンプルで、実装が簡単で、トレーニング時にメモリ効率が向上します。
論文 参考訳(メタデータ) (2021-05-17T19:36:28Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Consistency Regularization with High-dimensional Non-adversarial
Source-guided Perturbation for Unsupervised Domain Adaptation in Segmentation [15.428323201750144]
BiSIDAは、未ラベルのターゲットデータセットからの情報を効率的に活用するために、一貫性の正則化を採用している。
BiSIDAは、一般的に使われている2つの合成-実領域適応ベンチマーク上で、新しい最先端を実現する。
論文 参考訳(メタデータ) (2020-09-18T03:26:44Z) - CrDoCo: Pixel-level Domain Transfer with Cross-Domain Consistency [119.45667331836583]
教師なしのドメイン適応アルゴリズムは、あるドメインから学んだ知識を別のドメインに転送することを目的としている。
本稿では,新しい画素単位の対向領域適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-09T19:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。