論文の概要: TriGAN: Image-to-Image Translation for Multi-Source Domain Adaptation
- arxiv url: http://arxiv.org/abs/2004.08769v1
- Date: Sun, 19 Apr 2020 05:07:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-12-12 00:23:42.461660
- Title: TriGAN: Image-to-Image Translation for Multi-Source Domain Adaptation
- Title(参考訳): TriGAN:マルチソースドメイン適応のための画像から画像への変換
- Authors: Subhankar Roy, Aliaksandr Siarohin, Enver Sangineto, Nicu Sebe, Elisa
Ricci
- Abstract要約: 本稿では,ジェネレーティブ・アドバイサル・ネットワークに基づくマルチソース・ドメイン適応(MSDA)の最初のアプローチを提案する。
本手法は,画像の出現がドメイン,スタイル,内容の3つの要因に依存するという観察に着想を得たものである。
提案手法はMSDAベンチマークを用いて試行し,最先端の手法より優れていることを示す。
- 参考スコア(独自算出の注目度): 82.52514546441247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most domain adaptation methods consider the problem of transferring knowledge
to the target domain from a single source dataset. However, in practical
applications, we typically have access to multiple sources. In this paper we
propose the first approach for Multi-Source Domain Adaptation (MSDA) based on
Generative Adversarial Networks. Our method is inspired by the observation that
the appearance of a given image depends on three factors: the domain, the style
(characterized in terms of low-level features variations) and the content. For
this reason we propose to project the image features onto a space where only
the dependence from the content is kept, and then re-project this invariant
representation onto the pixel space using the target domain and style. In this
way, new labeled images can be generated which are used to train a final target
classifier. We test our approach using common MSDA benchmarks, showing that it
outperforms state-of-the-art methods.
- Abstract(参考訳): ほとんどのドメイン適応法は、単一のソースデータセットから対象ドメインに知識を転送する問題を考える。
しかし、現実的なアプリケーションでは、通常は複数のソースにアクセスできます。
本稿では,生成型adversarial networkに基づくマルチソースドメイン適応 (msda) に対する最初のアプローチを提案する。
本手法は, 画像の外観が, ドメイン, スタイル(低レベル特徴量による特徴量) , 内容の3つの要因に依存するという観察に着想を得たものである。
そこで我々は,画像の特徴をコンテンツへの依存のみを保持する空間に投影し,対象領域とスタイルを用いて,この不変表現を画素空間に再投影することを提案する。
このようにして、最終ターゲット分類器のトレーニングに使用される新しいラベル付き画像を生成することができる。
提案手法はMSDAベンチマークを用いて検証し,最先端手法より優れていることを示す。
関連論文リスト
- Domain Agnostic Image-to-image Translation using Low-Resolution
Conditioning [6.470760375991825]
ドメインが関係するきめ細かい問題に対して,ドメインに依存しないi2i法を提案する。
本稿では、生成モデルを訓練し、関連するソース画像の固有情報を共有する画像を生成する新しいアプローチを提案する。
CelebA-HQ と AFHQ のデータセット上で,視覚的品質の向上を実証し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-08T19:58:49Z) - I2F: A Unified Image-to-Feature Approach for Domain Adaptive Semantic
Segmentation [55.633859439375044]
意味的セグメンテーションのための教師なしドメイン適応(UDA)は、重いアノテーション作業から人々を解放する有望なタスクである。
この問題に対処する主要なアイデアは、画像レベルと特徴レベルの両方を共同で実行することである。
本稿では,画像レベルと特徴レベルを統一したセマンティックセグメンテーションのための新しいUDAパイプラインを提案する。
論文 参考訳(メタデータ) (2023-01-03T15:19:48Z) - Instance-level Heterogeneous Domain Adaptation for Limited-labeled
Sketch-to-Photo Retrieval [36.32367182571164]
インスタンスレベルの不均一ドメイン適応(IHDA)フレームワークを提案する。
我々は,インスタンスレベルの知識を帰納的伝達方式で伝達することを目的とした,アイデンティティラベル学習のための微調整戦略を適用した。
提案手法は,3つのスケッチ・ツー・フォト画像検索ベンチマークに対して,アノテーションを伴わずに新たな手法を設定できることが実験により示されている。
論文 参考訳(メタデータ) (2022-11-26T08:50:08Z) - Towards Diverse and Faithful One-shot Adaption of Generative Adversarial
Networks [54.80435295622583]
ワンショット生成ドメイン適応は、訓練済みのジェネレータを1つの参照画像のみを使用して、新しいドメインに転送することを目的としている。
本稿では、多種多様な世代と忠実な適応のための新しい一発生成ドメイン適応法、すなわち、DiFaを提案する。
論文 参考訳(メタデータ) (2022-07-18T16:29:41Z) - Disentangled Unsupervised Image Translation via Restricted Information
Flow [61.44666983942965]
多くの最先端のメソッドは、所望の共有vs固有の分割をアーキテクチャにハードコードする。
帰納的アーキテクチャバイアスに依存しない新しい手法を提案する。
提案手法は,2つの合成データセットと1つの自然なデータセットに対して一貫した高い操作精度を実現する。
論文 参考訳(メタデータ) (2021-11-26T00:27:54Z) - Deep Symmetric Adaptation Network for Cross-modality Medical Image
Segmentation [40.95845629932874]
監視されていないドメイン適応(UDA)手法は、クロスモダリティ医療イメージセグメンテーションタスクで有望なパフォーマンスを示しています。
医療用画像セグメンテーションのためのUDAの新しいディープシンメトリーアーキテクチャを提案する。セグメンテーションサブネットワークと2つのシンメトリーソースとターゲットドメイン翻訳サブネットワークからなる。
本手法は,Cardiac と BraTS のセグメンテーションタスクにおける最先端手法と比較して,顕著な利点がある。
論文 参考訳(メタデータ) (2021-01-18T02:54:30Z) - SMILE: Semantically-guided Multi-attribute Image and Layout Editing [154.69452301122175]
GAN(Generative Adversarial Networks)の導入以来、属性画像操作は非常に活発な話題となっている。
対象領域の下位領域情報のみを使用しながら、ランダムノイズや画像によって誘導される全ての属性を処理するマルチモーダル表現を提案する。
本手法では,イメージを参照として,あるいはスタイル分布空間を探索することにより,細粒度や粗粒度などの属性の追加,削除,変更を行うことができる。
論文 参考訳(メタデータ) (2020-10-05T20:15:21Z) - Multi-source Domain Adaptation for Visual Sentiment Classification [92.53780541232773]
マルチソース・ドメイン適応(MDA)手法をMSGAN(Multi-source Sentiment Generative Adversarial Network)と呼ぶ。
複数のソースドメインからのデータを扱うために、MSGANはソースドメインとターゲットドメインの両方のデータが同じ分布を共有する、統一された感情潜在空間を見つけることを学ぶ。
4つのベンチマークデータセットで実施された大規模な実験により、MSGANは視覚的感情分類のための最先端のMDAアプローチよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2020-01-12T08:37:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。