論文の概要: ProCST: Boosting Semantic Segmentation using Progressive Cyclic
Style-Transfer
- arxiv url: http://arxiv.org/abs/2204.11891v1
- Date: Mon, 25 Apr 2022 18:01:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 12:14:18.836396
- Title: ProCST: Boosting Semantic Segmentation using Progressive Cyclic
Style-Transfer
- Title(参考訳): ProCST:プログレッシブサイクルスタイルトランスファーを用いたセマンティックセグメンテーションの促進
- Authors: Shahaf Ettedgui, Shady Abu-Hussein, Raja Giryes
- Abstract要約: ドメイン適応技術を改善するための新しい2段階フレームワークを提案する。
最初のステップでは、複数のスケールのニューラルネットワークを段階的にトレーニングし、ソースデータからターゲットデータへの初期転送を行う。
この新たなデータは、所望のターゲットドメインとのドメインギャップを減らし、適用されたUDAアプローチにより、さらにギャップを埋める。
- 参考スコア(独自算出の注目度): 38.03127458140549
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Using synthetic data for training neural networks that achieve good
performance on real-world data is an important task as it has the potential to
reduce the need for costly data annotation. Yet, a network that is trained on
synthetic data alone does not perform well on real data due to the domain gap
between the two. Reducing this gap, also known as domain adaptation, has been
widely studied in recent years. In the unsupervised domain adaptation (UDA)
framework, unlabeled real data is used during training with labeled synthetic
data to obtain a neural network that performs well on real data. In this work,
we focus on image data. For the semantic segmentation task, it has been shown
that performing image-to-image translation from source to target, and then
training a network for segmentation on source annotations - leads to poor
results. Therefore a joint training of both is essential, which has been a
common practice in many techniques. Yet, closing the large domain gap between
the source and the target by directly performing the adaptation between the two
is challenging. In this work, we propose a novel two-stage framework for
improving domain adaptation techniques. In the first step, we progressively
train a multi-scale neural network to perform an initial transfer between the
source data to the target data. We denote the new transformed data as "Source
in Target" (SiT). Then, we use the generated SiT data as the input to any
standard UDA approach. This new data has a reduced domain gap from the desired
target domain, and the applied UDA approach further closes the gap. We
demonstrate the improvement achieved by our framework with two state-of-the-art
methods for semantic segmentation, DAFormer and ProDA, on two UDA tasks, GTA5
to Cityscapes and Synthia to Cityscapes. Code and state-of-the-art checkpoints
of ProCST+DAFormer are provided.
- Abstract(参考訳): 現実世界のデータで優れたパフォーマンスを達成するニューラルネットワークのトレーニングに合成データを使用することは、コストのかかるデータアノテーションの必要性を減らす可能性を秘めているため、重要なタスクである。
しかし、合成データだけで訓練されたネットワークは、両者のドメインギャップのため、実際のデータではうまく機能しない。
ドメイン適応として知られるこのギャップを減らすことは、近年広く研究されている。
unsupervised domain adaptation(uda)フレームワークでは、ラベル付き合成データとのトレーニング中にラベルなしの実データを使用して、実データでうまく機能するニューラルネットワークを得る。
本研究では,画像データに焦点をあてる。
セマンティックセグメンテーションタスクでは、ソースからターゲットへのイメージ間変換を実行し、ソースアノテーションのセグメンテーションのためのネットワークをトレーニングすると、結果が悪いことが示されている。
そのため、両者の合同訓練が不可欠であり、多くの技術で共通して行われている。
しかし、ソースとターゲットの間に大きなドメインギャップを閉じて、両者を直接適応させることは困難である。
本研究では,ドメイン適応技術を改善するための新しい2段階フレームワークを提案する。
最初のステップでは、複数のスケールのニューラルネットワークを段階的にトレーニングし、ソースデータからターゲットデータへの初期転送を行う。
我々は、新しい変換データを "Source in Target" (SiT) と表現する。
次に、生成したSiTデータを任意の標準UDAアプローチの入力として使用する。
この新たなデータは、所望のターゲットドメインとのドメインギャップを減らし、適用されたUDAアプローチにより、さらにギャップを埋める。
我々は,2つのUDAタスク,GTA5からCityscapes,SynthiaからCityscapesへの2つの最先端セグメンテーション手法,DAFormerとProDAを用いて,我々のフレームワークが達成した改善を実証する。
ProCST+DAFormerのコードと最先端のチェックポイントが提供される。
関連論文リスト
- Robust Source-Free Domain Adaptation for Fundus Image Segmentation [3.585032903685044]
Unlabelled Domain Adaptation (UDA)は、ラベル付きデータから学習した知識を、未ラベルデータのみを使用してターゲットドメインに転送する学習技術である。
本研究では,ロバストドメイン適応のための2段階トレーニングステージを提案する。
本稿では,ラベルのないターゲットデータを有効利用して擬似ラベルと擬似境界を生成する,ロバストな擬似ラベルと擬似境界(PLPB)手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T14:25:18Z) - Threshold-adaptive Unsupervised Focal Loss for Domain Adaptation of
Semantic Segmentation [25.626882426111198]
意味的セグメンテーションのための教師なしドメイン適応(UDA)は近年研究の注目を集めている。
本稿では,セマンティックセグメンテーションのための2段階エントロピーに基づくUDA手法を提案する。
本稿では,DeepLabV2を用いたSynTHIA-to-CityscapesとGTA5-to-Cityscapesにおける最先端の58.4%と59.6%のmIoUと,軽量BiSeNetを用いた競合性能を実現する。
論文 参考訳(メタデータ) (2022-08-23T03:48:48Z) - Bi-level Alignment for Cross-Domain Crowd Counting [113.78303285148041]
現在の手法は、補助的なタスクを訓練したり、高価な粗大な見積もりを適用したりするための外部データに依存している。
そこで我々は, 簡易かつ効率的に適用可能な, 逆学習に基づく新しい手法を開発した。
実世界の5つのクラウドカウントベンチマークに対するアプローチを評価し、既存のアプローチを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-05-12T02:23:25Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Deep Co-Training with Task Decomposition for Semi-Supervised Domain
Adaptation [80.55236691733506]
半教師付きドメイン適応(SSDA)は、ラベル付きソースドメインからトレーニングされたモデルを、異なるが関連するターゲットドメインに適応させることを目的としている。
本稿では,SSDAタスクを対象ドメイン内の半教師付き学習(SSL)タスクと,ドメイン間の非教師付きドメイン適応(UDA)タスクの2つのサブタスクに明示的に分解することを提案する。
論文 参考訳(メタデータ) (2020-07-24T17:57:54Z) - Self domain adapted network [6.040230864736051]
ドメインシフトは、臨床実践においてディープネットワークをデプロイする上で大きな問題である。
単体テスト対象に迅速に適応できる新しい自己ドメイン適応ネットワーク(SDA-Net)を提案する。
論文 参考訳(メタデータ) (2020-07-07T01:41:34Z) - Unsupervised Intra-domain Adaptation for Semantic Segmentation through
Self-Supervision [73.76277367528657]
畳み込みニューラルネットワークに基づくアプローチは、セマンティックセグメンテーションにおいて顕著な進歩を遂げた。
この制限に対処するために、グラフィックエンジンから生成された注釈付きデータを使用してセグメンテーションモデルをトレーニングする。
ドメイン間およびドメイン間ギャップを最小化する2段階の自己教師付きドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2020-04-16T15:24:11Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。