論文の概要: CT-Net: Complementary Transfering Network for Garment Transfer with
Arbitrary Geometric Changes
- arxiv url: http://arxiv.org/abs/2105.05497v1
- Date: Wed, 12 May 2021 08:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 12:24:18.276692
- Title: CT-Net: Complementary Transfering Network for Garment Transfer with
Arbitrary Geometric Changes
- Title(参考訳): CT-Net:任意幾何変化を伴うガーメント転送のための補完的転送ネットワーク
- Authors: Fan Yang, Guosheng Lin
- Abstract要約: CT-Net(Complementary Transfering Network)は、異なるレベルの幾何学的変化を適応的にモデル化し、異なる人々の間で衣装を転送する手法である。
ネットワークは高品質な衣料品転送画像を合成し,質的かつ定量的に最先端の手法を著しく上回っている。
- 参考スコア(独自算出の注目度): 49.06982066976623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Garment transfer shows great potential in realistic applications with the
goal of transfering outfits across different people images. However, garment
transfer between images with heavy misalignments or severe occlusions still
remains as a challenge. In this work, we propose Complementary Transfering
Network (CT-Net) to adaptively model different levels of geometric changes and
transfer outfits between different people. In specific, CT-Net consists of
three modules: 1) A complementary warping module first estimates two
complementary warpings to transfer the desired clothes in different
granularities. 2) A layout prediction module is proposed to predict the target
layout, which guides the preservation or generation of the body parts in the
synthesized images. 3) A dynamic fusion module adaptively combines the
advantages of the complementary warpings to render the garment transfer
results. Extensive experiments conducted on DeepFashion dataset demonstrate
that our network synthesizes high-quality garment transfer images and
significantly outperforms the state-of-art methods both qualitatively and
quantitatively.
- Abstract(参考訳): 衣服の移動は、異なる人物画像間で衣装を転送することを目的として、現実のアプリケーションで大きな可能性を秘めている。
しかし、重度の不一致や重度の閉塞を伴う画像間の衣料移動は依然として課題である。
本研究では,異なるレベルの幾何学的変化を適応的にモデル化し,異なる人物間での移動を行うための補完的伝達ネットワーク(CT-Net)を提案する。
具体的には、ct-netは3つのモジュールから構成されている: 1) 補完的ウォーピングモジュール まず2つの補完的ウォーピングを推定し、望ましい服を異なる粒度で転送する。
2)合成画像における身体部位の保存または生成を導く目標配置を予測するためにレイアウト予測モジュールが提案されている。
3) 動的融合モジュールは, 相補的なワープの利点を適応的に組み合わせて, 衣服の移動結果をレンダリングする。
DeepFashionデータセット上で行った大規模な実験により、当社のネットワークは高品質な衣料品の転送画像を合成し、定性的かつ定量的に最先端の手法を著しく上回ることを示した。
関連論文リスト
- Cross-domain and Cross-dimension Learning for Image-to-Graph
Transformers [50.576354045312115]
直接画像からグラフへの変換は、単一のモデルにおけるオブジェクトの検出と関係予測を解決するための課題である。
画像-グラフ変換器のクロスドメインおよびクロス次元変換学習を可能にする一連の手法を提案する。
そこで我々は,2次元の衛星画像上でモデルを事前学習し,それを2次元および3次元の異なるターゲット領域に適用する。
論文 参考訳(メタデータ) (2024-03-11T10:48:56Z) - Mutual Information-driven Triple Interaction Network for Efficient Image
Dehazing [54.168567276280505]
画像デハージングのための相互情報駆動型トリプルインタラクションネットワーク(MITNet)を提案する。
振幅誘導ヘイズ除去と呼ばれる第1段階は、ヘイズ除去のためのヘイズ画像の振幅スペクトルを復元することを目的としている。
第2段階は位相誘導構造が洗練され、位相スペクトルの変換と微細化を学ぶことに尽力した。
論文 参考訳(メタデータ) (2023-08-14T08:23:58Z) - Unsupervised 3D Pose Transfer with Cross Consistency and Dual
Reconstruction [50.94171353583328]
3Dポーズ転送の目標は、アイデンティティ情報を保存しながら、ソースメッシュからターゲットメッシュにポーズを転送することである。
深層学習に基づく手法は、3Dポーズ転送の効率と性能を改善した。
X-DualNetは、教師なしの3Dポーズ転送を可能にするシンプルで効果的なアプローチである。
論文 参考訳(メタデータ) (2022-11-18T15:09:56Z) - Playing Lottery Tickets in Style Transfer Models [57.55795986289975]
スタイル・トランスファーは大きな成功を収め、学術界と工業界の両方から幅広い注目を集めた。
しかし、かなり大きなVGGベースのオートエンコーダへの依存は、パラメータの複雑度が高い既存のスタイル転送モデルに繋がる。
本研究では,このようなトレーニング可能なネットワークが,スタイル伝達モデルにも存在するかどうかを検証するための,最初の実証的研究を行う。
論文 参考訳(メタデータ) (2022-03-25T17:43:18Z) - Class-Aware Generative Adversarial Transformers for Medical Image
Segmentation [39.14169989603906]
医用画像セグメンテーションのための新規な生成逆変換器CA-GANformerを提案する。
まず、ピラミッド構造を利用してマルチスケール表現を構築し、マルチスケールのバリエーションを扱う。
次に、意味構造を持つオブジェクトの識別領域をよりよく学習するために、新しいクラス対応トランスフォーマーモジュールを設計する。
論文 参考訳(メタデータ) (2022-01-26T03:50:02Z) - Progressive and Aligned Pose Attention Transfer for Person Image
Generation [59.87492938953545]
本稿では,ある人物のポーズを対象のポーズに移す,新たなポーズ移動のための生成的広告ネットワークを提案する。
Pose-Attentional Transfer Block (PATB) と Aligned Pose-Attentional Transfer Bloc (APATB) の2種類のブロックを使用します。
Market-1501およびDeepFashionデータセットにおけるモデルの有効性を定量的および定性測定を用いて検証する。
論文 参考訳(メタデータ) (2021-03-22T07:24:57Z) - Two-Stream Appearance Transfer Network for Person Image Generation [16.681839931864886]
画像生成や翻訳に広く用いられているGAN(Generative Adversarial Network)は、空間的局所的および翻訳同変演算子に依存している。
本稿では,この課題に対処するために,新しい2ストリームの外観伝達ネットワーク(2s-ATN)を提案する。
ソースストリームとターゲットストリームで構成される多段階アーキテクチャである。各ステージは外観伝達モジュールと複数の2ストリーム特徴融合モジュールを備える。
論文 参考訳(メタデータ) (2020-11-09T04:21:02Z) - SieveNet: A Unified Framework for Robust Image-Based Virtual Try-On [14.198545992098309]
SieveNetは、堅牢なイメージベースの仮想トライオンのためのフレームワークである。
細粒度精度をモデル化する多段粗いワープネットワークを提案する。
また,テクスチャ伝達ネットワークを改善するために,試着型布条件セグメンテーションマスクを導入する。
論文 参考訳(メタデータ) (2020-01-17T12:33:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。