論文の概要: DRANet: Disentangling Representation and Adaptation Networks for
Unsupervised Cross-Domain Adaptation
- arxiv url: http://arxiv.org/abs/2103.13447v1
- Date: Wed, 24 Mar 2021 18:54:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:40:43.285577
- Title: DRANet: Disentangling Representation and Adaptation Networks for
Unsupervised Cross-Domain Adaptation
- Title(参考訳): dranet: 教師なしクロスドメイン適応のための分散表現と適応ネットワーク
- Authors: Seunghun Lee, Sunghyun Cho, Sunghoon Im
- Abstract要約: dranetは画像表現を分離し、教師なしのクロスドメイン適応のために潜在空間に視覚属性を転送するネットワークアーキテクチャである。
私たちのモデルは、ソースイメージとターゲットイメージの両方からコンテンツ(シーン構造)とスタイル(芸術的外観)の個々の表現をエンコードします。
変換されたスタイルファクタを、各ドメインに指定された学習可能なウェイトと共にコンテンツファクタに組み込むことで、ドメインに適応する。
- 参考スコア(独自算出の注目度): 23.588766224169493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present DRANet, a network architecture that disentangles
image representations and transfers the visual attributes in a latent space for
unsupervised cross-domain adaptation. Unlike the existing domain adaptation
methods that learn associated features sharing a domain, DRANet preserves the
distinctiveness of each domain's characteristics. Our model encodes individual
representations of content (scene structure) and style (artistic appearance)
from both source and target images. Then, it adapts the domain by incorporating
the transferred style factor into the content factor along with learnable
weights specified for each domain. This learning framework allows
bi-/multi-directional domain adaptation with a single encoder-decoder network
and aligns their domain shift. Additionally, we propose a content-adaptive
domain transfer module that helps retain scene structure while transferring
style. Extensive experiments show our model successfully separates
content-style factors and synthesizes visually pleasing domain-transferred
images. The proposed method demonstrates state-of-the-art performance on
standard digit classification tasks as well as semantic segmentation tasks.
- Abstract(参考訳): 本稿では,非教師付きクロスドメイン適応のための潜在空間における画像表現と視覚属性の転送を分離するネットワークアーキテクチャであるdranetを提案する。
ドメインを共有する関連する特徴を学ぶ既存のドメイン適応手法とは異なり、dranetは各ドメインの特性の識別性を保持する。
本モデルは,ソース画像とターゲット画像の両方から,コンテンツ(シーン構造)とスタイル(芸術的外観)の個々の表現を符号化する。
そして、転送されたスタイルファクタを、各ドメインに指定された学習可能なウェイトと共にコンテンツファクタに組み込むことで、ドメインに適応する。
この学習フレームワークは、単一エンコーダ/デコーダネットワークによる双方向/複数方向のドメイン適応を可能にし、ドメインシフトを調整する。
さらに,スタイル変換時のシーン構造保持を支援するコンテンツ適応型ドメイン転送モジュールを提案する。
広範な実験により,本モデルがコンテンツスタイル因子を分離し,視覚的に整域移動像を合成することを示す。
提案手法は,標準桁分類タスクと意味セグメンテーションタスクにおける最先端の性能を示す。
関連論文リスト
- Domain-Rectifying Adapter for Cross-Domain Few-Shot Segmentation [40.667166043101076]
多様なターゲットドメインスタイルをソースドメインに修正するための小さなアダプタを提案する。
アダプタは、さまざまな合成対象ドメインから画像特徴を修正して、ソースドメインと整合するように訓練される。
提案手法は,ドメイン間複数ショットセマンティックセマンティックセグメンテーションタスクにおいて有望な結果を得る。
論文 参考訳(メタデータ) (2024-04-16T07:07:40Z) - Domain Generalization by Learning and Removing Domain-specific Features [15.061481139046952]
ドメインの一般化は、目に見えないドメインに一般化できるモデルを学ぶことでこの問題に対処することを目的としている。
ドメインの一般化のために、ドメイン固有の機能を明示的に削除することを目的とした、新しいアプローチを提案する。
学習領域固有の特徴を除去した新しい画像空間に各入力画像をマッピングするエンコーダデコーダネットワークを開発した。
論文 参考訳(メタデータ) (2022-12-14T08:46:46Z) - Domain Invariant Masked Autoencoders for Self-supervised Learning from
Multi-domains [73.54897096088149]
マルチドメインからの自己教師型学習のためのドメイン不変のMasked AutoEncoder (DiMAE)を提案する。
中心となる考え方は、入力画像を異なるドメインからのスタイルノイズで拡張し、拡張イメージの埋め込みからイメージを再構築することである。
PACSとDomainNetの実験は、最近の最先端の手法と比較して、DiMAEがかなりの利益を得ていることを示している。
論文 参考訳(メタデータ) (2022-05-10T09:49:40Z) - Disentangled Unsupervised Image Translation via Restricted Information
Flow [61.44666983942965]
多くの最先端のメソッドは、所望の共有vs固有の分割をアーキテクチャにハードコードする。
帰納的アーキテクチャバイアスに依存しない新しい手法を提案する。
提案手法は,2つの合成データセットと1つの自然なデータセットに対して一貫した高い操作精度を実現する。
論文 参考訳(メタデータ) (2021-11-26T00:27:54Z) - DensePASS: Dense Panoramic Semantic Segmentation via Unsupervised Domain
Adaptation with Attention-Augmented Context Exchange [32.29797061415896]
パノラマ的セマンティックセグメンテーションのための教師なしドメイン適応のタスクを形式化する。
パノラマ画像の異なるターゲット領域にピンホールカメラデータのソース領域からラベル付き例に基づいて訓練されたネットワークを配置する。
我々は、注目強化ドメイン適応モジュールの異なる変種に基づいて、ドメイン間パノラマセマンティックセマンティックセマンティックセマンティクスのための汎用フレームワークを構築した。
論文 参考訳(メタデータ) (2021-08-13T20:15:46Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Variational Interaction Information Maximization for Cross-domain
Disentanglement [34.08140408283391]
ドメイン間の絡み合いは、ドメイン不変表現とドメイン固有表現に分割された表現の学習の問題である。
複数の情報制約の共用目的として,ドメイン不変表現とドメイン固有表現の同時学習を行った。
ゼロショットスケッチに基づく画像検索タスクにおいて,本モデルが最新性能を達成することを示した。
論文 参考訳(メタデータ) (2020-12-08T07:11:35Z) - DoFE: Domain-oriented Feature Embedding for Generalizable Fundus Image
Segmentation on Unseen Datasets [96.92018649136217]
対象ドメインに対するCNNの一般化能力を向上させるために,新しいドメイン指向特徴埋め込み(DoFE)フレームワークを提案する。
私たちのDoFEフレームワークは、マルチソースドメインから学んだ追加のドメイン事前知識で、画像機能を動的に強化します。
本フレームワークは、未確認データセットのセグメンテーション結果を満足して生成し、他の領域の一般化やネットワークの正規化手法を超越する。
論文 参考訳(メタデータ) (2020-10-13T07:28:39Z) - Latent Normalizing Flows for Many-to-Many Cross-Domain Mappings [76.85673049332428]
画像とテキストの合同表現の学習は、画像キャプションのようないくつかの重要なドメイン横断タスクのバックボーンを形成する。
ドメイン間の共有情報とドメイン固有の情報を個別にモデル化する,新しい半教師付きフレームワークを提案する。
画像キャプションやテキスト・ツー・イメージ合成など,様々なタスクにおけるモデルの有効性を示す。
論文 参考訳(メタデータ) (2020-02-16T19:49:30Z) - CrDoCo: Pixel-level Domain Transfer with Cross-Domain Consistency [119.45667331836583]
教師なしのドメイン適応アルゴリズムは、あるドメインから学んだ知識を別のドメインに転送することを目的としている。
本稿では,新しい画素単位の対向領域適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-09T19:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。