論文の概要: Generating Furry Cars: Disentangling Object Shape & Appearance across
Multiple Domains
- arxiv url: http://arxiv.org/abs/2104.02052v1
- Date: Mon, 5 Apr 2021 17:59:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 16:06:36.265133
- Title: Generating Furry Cars: Disentangling Object Shape & Appearance across
Multiple Domains
- Title(参考訳): ファウリーカーの生成:複数の領域にまたがる物体形状と外観の遠ざかる
- Authors: Utkarsh Ojha, Krishna Kumar Singh, Yong Jae Lee
- Abstract要約: 多領域にまたがる物体の形状と外観の非絡み合い表現を学習する新しいタスクを検討する。
私たちは、各ドメインからプロパティのサブセットを借りる中間分布を学習する生成モデルを学びます。
この課題は、各ドメインのオブジェクト形状、外観、背景の正確な異方性を必要とする。
- 参考スコア(独自算出の注目度): 46.55517346455773
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We consider the novel task of learning disentangled representations of object
shape and appearance across multiple domains (e.g., dogs and cars). The goal is
to learn a generative model that learns an intermediate distribution, which
borrows a subset of properties from each domain, enabling the generation of
images that did not exist in any domain exclusively. This challenging problem
requires an accurate disentanglement of object shape, appearance, and
background from each domain, so that the appearance and shape factors from the
two domains can be interchanged. We augment an existing approach that can
disentangle factors within a single domain but struggles to do so across
domains. Our key technical contribution is to represent object appearance with
a differentiable histogram of visual features, and to optimize the generator so
that two images with the same latent appearance factor but different latent
shape factors produce similar histograms. On multiple multi-domain datasets, we
demonstrate our method leads to accurate and consistent appearance and shape
transfer across domains.
- Abstract(参考訳): 本研究では,複数の領域(例えば犬や車)にまたがる物体形状と外観の不連続表現を学習する新しい課題について考察する。
目的は、中間分布を学習する生成モデルを学習し、各ドメインからプロパティのサブセットを借り、任意のドメインに存在しない画像の生成を可能にすることである。
この困難な問題では、各ドメインのオブジェクト形状、外観、背景を正確に区別する必要があるため、2つのドメインからの外観と形状因子を交換できる。
ひとつのドメイン内で要素をアンタングルできる既存のアプローチを拡張しますが、ドメインをまたがってそれを行うのに苦労しています。
我々の重要な技術的貢献は、視覚的特徴の微分可能なヒストグラムでオブジェクトの出現を表現し、同じ潜在外観因子と異なる潜在形状因子を持つ2つの画像が類似のヒストグラムを生成するようにジェネレータを最適化することである。
複数のマルチドメインデータセットについて,本手法がドメイン間の正確な外観と形状の伝達をもたらすことを示す。
関連論文リスト
- Compositional Semantic Mix for Domain Adaptation in Point Cloud
Segmentation [65.78246406460305]
合成意味混合は、ポイントクラウドセグメンテーションのための最初の教師なし領域適応技術である。
本稿では、ソースドメイン(例えば合成)からの点雲とターゲットドメイン(例えば実世界)からの点雲を同時に処理できる2分岐対称ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-08-28T14:43:36Z) - Polymorphic-GAN: Generating Aligned Samples across Multiple Domains with
Learned Morph Maps [94.10535575563092]
本稿では,複数の関連ドメインから一貫した画像サンプルを同時に生成できる生成逆ネットワークを提案する。
各ドメインにまたがる共有特徴を学習するポリモルフィックGANと、各ドメインに応じて共有特徴を共有化するためのドメインごとのモルフィック層を提案する。
論文 参考訳(メタデータ) (2022-06-06T21:03:02Z) - Domain Invariant Masked Autoencoders for Self-supervised Learning from
Multi-domains [73.54897096088149]
マルチドメインからの自己教師型学習のためのドメイン不変のMasked AutoEncoder (DiMAE)を提案する。
中心となる考え方は、入力画像を異なるドメインからのスタイルノイズで拡張し、拡張イメージの埋め込みからイメージを再構築することである。
PACSとDomainNetの実験は、最近の最先端の手法と比較して、DiMAEがかなりの利益を得ていることを示している。
論文 参考訳(メタデータ) (2022-05-10T09:49:40Z) - A Domain Gap Aware Generative Adversarial Network for Multi-domain Image
Translation [22.47113158859034]
本稿では,複数の領域にまたがって画像の変換を行う統一モデルを提案する。
単一の統一ジェネレータにより、モデルはグローバルな形状と複数のドメインにわたる局所的なテクスチャ情報との整合性を維持することができる。
論文 参考訳(メタデータ) (2021-10-21T00:33:06Z) - DRANet: Disentangling Representation and Adaptation Networks for
Unsupervised Cross-Domain Adaptation [23.588766224169493]
dranetは画像表現を分離し、教師なしのクロスドメイン適応のために潜在空間に視覚属性を転送するネットワークアーキテクチャである。
私たちのモデルは、ソースイメージとターゲットイメージの両方からコンテンツ(シーン構造)とスタイル(芸術的外観)の個々の表現をエンコードします。
変換されたスタイルファクタを、各ドメインに指定された学習可能なウェイトと共にコンテンツファクタに組み込むことで、ドメインに適応する。
論文 参考訳(メタデータ) (2021-03-24T18:54:23Z) - Domain Adaptation for Learning Generator from Paired Few-Shot Data [72.04430033118426]
十分なソースデータと少数のターゲットデータを持つジェネレータを学習するためのペアドフェーショットGAN(PFS-GAN)モデルを提案する。
提案手法は,複数のベースラインと比較して,より多様性の高い生成対象ドメインデータに対して,定量的,定性的な結果が得られる。
論文 参考訳(メタデータ) (2021-02-25T10:11:44Z) - Variational Interaction Information Maximization for Cross-domain
Disentanglement [34.08140408283391]
ドメイン間の絡み合いは、ドメイン不変表現とドメイン固有表現に分割された表現の学習の問題である。
複数の情報制約の共用目的として,ドメイン不変表現とドメイン固有表現の同時学習を行った。
ゼロショットスケッチに基づく画像検索タスクにおいて,本モデルが最新性能を達成することを示した。
論文 参考訳(メタデータ) (2020-12-08T07:11:35Z) - Shape-aware Generative Adversarial Networks for Attribute Transfer [10.786099674296986]
属性の転送時に形状を保存できる形状認識型GANモデルを提案する。
我々の提案するモデルでは、他の最先端のGANのイメージ・ツー・イメージ翻訳モデルと比較して、より視覚的に魅力的な結果を生成することができる。
論文 参考訳(メタデータ) (2020-10-11T14:52:32Z) - SMILE: Semantically-guided Multi-attribute Image and Layout Editing [154.69452301122175]
GAN(Generative Adversarial Networks)の導入以来、属性画像操作は非常に活発な話題となっている。
対象領域の下位領域情報のみを使用しながら、ランダムノイズや画像によって誘導される全ての属性を処理するマルチモーダル表現を提案する。
本手法では,イメージを参照として,あるいはスタイル分布空間を探索することにより,細粒度や粗粒度などの属性の追加,削除,変更を行うことができる。
論文 参考訳(メタデータ) (2020-10-05T20:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。