論文の概要: ADeLA: Automatic Dense Labeling with Attention for Viewpoint Adaptation
in Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2107.14285v1
- Date: Thu, 29 Jul 2021 19:10:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-02 13:03:51.870778
- Title: ADeLA: Automatic Dense Labeling with Attention for Viewpoint Adaptation
in Semantic Segmentation
- Title(参考訳): ADeLA: セマンティックセグメンテーションにおける視点適応のための注意付きDense Labeling
- Authors: Yanchao Yang, Hanxiang Ren, He Wang, Bokui Shen, Qingnan Fan, Youyi
Zheng, C. Karen Liu and Leonidas Guibas
- Abstract要約: 本稿では,意味的セグメンテーションタスクに対する視点変化による画像コンテンツシフトに対する教師なし領域適応手法について述べる。
本手法は2つの領域間の画像の統計を調整せずに機能する。
色画像のみに基づいてトレーニングされたビュー変換ネットワークを使用して、ターゲットのセマンティックイメージを幻覚させる。
- 参考スコア(独自算出の注目度): 27.69348820877977
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe an unsupervised domain adaptation method for image content shift
caused by viewpoint changes for a semantic segmentation task. Most existing
methods perform domain alignment in a shared space and assume that the mapping
from the aligned space to the output is transferable. However, the novel
content induced by viewpoint changes may nullify such a space for effective
alignments, thus resulting in negative adaptation. Our method works without
aligning any statistics of the images between the two domains. Instead, it
utilizes a view transformation network trained only on color images to
hallucinate the semantic images for the target. Despite the lack of
supervision, the view transformation network can still generalize to semantic
images thanks to the inductive bias introduced by the attention mechanism.
Furthermore, to resolve ambiguities in converting the semantic images to
semantic labels, we treat the view transformation network as a functional
representation of an unknown mapping implied by the color images and propose
functional label hallucination to generate pseudo-labels in the target domain.
Our method surpasses baselines built on state-of-the-art correspondence
estimation and view synthesis methods. Moreover, it outperforms the
state-of-the-art unsupervised domain adaptation methods that utilize
self-training and adversarial domain alignment. Our code and dataset will be
made publicly available.
- Abstract(参考訳): 意味的セグメンテーションタスクの視点変化に起因する画像コンテンツシフトに対する教師なし領域適応手法について述べる。
ほとんどの既存メソッドは共有空間でドメインアライメントを行い、アライメントされた空間から出力へのマッピングは転送可能であると仮定する。
しかし、視点変化によって誘導される新しい内容は、効果的なアライメントのためにそのような空間を無効にし、結果として負の適応をもたらす。
本手法は2つの領域間の画像の統計を調整せずに動作する。
代わりに、カラーイメージのみにトレーニングされたビュー変換ネットワークを使用して、ターゲットのセマンティックイメージを指導する。
監視の欠如にもかかわらず、ビュートランスフォーメーションネットワークは、注意機構によって導入された誘導バイアスにより、セマンティックイメージに一般化することができる。
さらに,意味的イメージを意味的ラベルに変換する際の曖昧さを解消するために,色画像に暗示される未知のマッピングの機能表現としてビュー変換ネットワークを扱い,対象領域で擬似ラベルを生成する機能的ラベル幻覚を提案する。
本手法は,最先端の対応推定とビュー合成に基づくベースラインを超越する。
さらに、自己学習と対向ドメインアライメントを利用する最先端の教師なしドメインアライメント手法よりも優れている。
私たちのコードとデータセットは公開される予定だ。
関連論文リスト
- Unsupervised Domain Adaptation for Semantic Segmentation using One-shot
Image-to-Image Translation via Latent Representation Mixing [9.118706387430883]
超高解像度画像のセマンティックセグメンテーションのための新しい教師なし領域適応法を提案する。
潜在コンテンツ表現をドメイン間で混合するエンコーダ・デコーダの原理に基づいて,画像から画像への変換パラダイムを提案する。
都市間比較実験により,提案手法は最先端領域適応法より優れていることが示された。
論文 参考訳(メタデータ) (2022-12-07T18:16:17Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - Semi-supervised domain adaptation with CycleGAN guided by a downstream
task loss [4.941630596191806]
ドメイン適応は、ラベル付けが高価でエラーを起こしやすいタスクであるため、非常に興味深い。
画像から画像へのアプローチは、入力のシフトを軽減するために使用することができる。
本稿では、画像から画像へのドメイン適応アプローチにおいて、GANの「タスク認識」バージョンを提案する。
論文 参考訳(メタデータ) (2022-08-18T13:13:30Z) - DecoupleNet: Decoupled Network for Domain Adaptive Semantic Segmentation [78.30720731968135]
セマンティックセグメンテーションにおける教師なしドメイン適応は、高価なピクセル単位のアノテーションへの依存を軽減するために提起されている。
我々は、ソースドメインのオーバーフィットを軽減し、最終的なモデルをセグメント化タスクに集中できるようにするDecoupleNetを提案する。
我々はまた、自己識別(SD)を推進し、擬似ラベルでより識別可能なターゲットドメイン特徴を学習するための補助分類器を導入した。
論文 参考訳(メタデータ) (2022-07-20T15:47:34Z) - SGDR: Semantic-guided Disentangled Representation for Unsupervised
Cross-modality Medical Image Segmentation [5.090366802287405]
本稿では,セグメンテーションタスクにおいて意味論的に意味のある特徴を正確に表現するために,意味誘導非絡み合い表現(SGDR)と呼ばれる新しいフレームワークを提案する。
提案手法を2つの公開データセットで検証し, 実験結果から, 2つの評価指標における工法の現状を, 有意差で比較した。
論文 参考訳(メタデータ) (2022-03-26T08:31:00Z) - Semantic Consistency in Image-to-Image Translation for Unsupervised
Domain Adaptation [22.269565708490465]
Unsupervised Domain Adaptation (UDA)は、ソースドメインでトレーニングされたモデルを、ラベル付きデータが使用できない新しいターゲットドメインに適応させることを目的としている。
UDAの整合性正規化手法と組み合わせて意味論的に一貫した画像から画像への変換法を提案する。
論文 参考訳(メタデータ) (2021-11-05T14:22:20Z) - Semantically Adaptive Image-to-image Translation for Domain Adaptation
of Semantic Segmentation [1.8275108630751844]
街路シーンのセマンティックセグメンテーションにおけるドメイン適応の問題に対処する。
最先端のアプローチの多くは、結果が入力とセマンティックに一致していることを示しながら、ソースイメージの翻訳に重点を置いている。
画像のセマンティクスを利用して翻訳アルゴリズムを導くことも提案する。
論文 参考訳(メタデータ) (2020-09-02T16:16:50Z) - Cross-domain Correspondence Learning for Exemplar-based Image
Translation [59.35767271091425]
本稿では,異なる領域の入力からフォトリアリスティックな画像を合成する,例題に基づく画像翻訳のためのフレームワークを提案する。
出力は、例において意味的に対応するオブジェクトと整合したスタイル(例えば、色、テクスチャ)を持つ。
本手法は画像品質の面で最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-12T09:10:57Z) - Phase Consistent Ecological Domain Adaptation [76.75730500201536]
意味的セグメンテーション(意味的セグメンテーション)の課題に焦点をあてる。そこでは、注釈付き合成データが多用されるが、実際のデータへのアノテートは困難である。
視覚心理学に触発された最初の基準は、2つの画像領域間の地図が位相保存であることである。
第2の基準は、照明剤や撮像センサーの特性に関わらず、その画像に現れる環境統計、またはシーン内の規則を活用することを目的としている。
論文 参考訳(メタデータ) (2020-04-10T06:58:03Z) - Semantic Image Manipulation Using Scene Graphs [105.03614132953285]
本稿では,星座変更や画像編集を直接監督する必要のないシーングラフネットワークを提案する。
これにより、追加のアノテーションを使わずに、既存の実世界のデータセットからシステムをトレーニングすることができる。
論文 参考訳(メタデータ) (2020-04-07T20:02:49Z) - CrDoCo: Pixel-level Domain Transfer with Cross-Domain Consistency [119.45667331836583]
教師なしのドメイン適応アルゴリズムは、あるドメインから学んだ知識を別のドメインに転送することを目的としている。
本稿では,新しい画素単位の対向領域適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-09T19:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。