論文の概要: HairCLIP: Design Your Hair by Text and Reference Image
- arxiv url: http://arxiv.org/abs/2112.05142v1
- Date: Thu, 9 Dec 2021 18:59:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 15:52:42.811382
- Title: HairCLIP: Design Your Hair by Text and Reference Image
- Title(参考訳): HairCLIP:テキストと参照画像でヘアをデザインする
- Authors: Tianyi Wei and Dongdong Chen and Wenbo Zhou and Jing Liao and Zhentao
Tan and Lu Yuan and Weiming Zhang and Nenghai Yu
- Abstract要約: 本稿では, 毛髪属性を個別に, 共同で操作できる新しい毛髪編集インタラクションモードを提案する。
画像とテキストの条件を共有埋め込み空間にエンコードし、統一的なヘア編集フレームワークを提案する。
念入りに設計されたネットワーク構造と損失関数により,我々のフレームワークは高品質な毛髪編集を行うことができる。
- 参考スコア(独自算出の注目度): 100.85116679883724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hair editing is an interesting and challenging problem in computer vision and
graphics. Many existing methods require well-drawn sketches or masks as
conditional inputs for editing, however these interactions are neither
straightforward nor efficient. In order to free users from the tedious
interaction process, this paper proposes a new hair editing interaction mode,
which enables manipulating hair attributes individually or jointly based on the
texts or reference images provided by users. For this purpose, we encode the
image and text conditions in a shared embedding space and propose a unified
hair editing framework by leveraging the powerful image text representation
capability of the Contrastive Language-Image Pre-Training (CLIP) model. With
the carefully designed network structures and loss functions, our framework can
perform high-quality hair editing in a disentangled manner. Extensive
experiments demonstrate the superiority of our approach in terms of
manipulation accuracy, visual realism of editing results, and irrelevant
attribute preservation. Project repo is https://github.com/wty-ustc/HairCLIP.
- Abstract(参考訳): 毛髪編集はコンピュータビジョンとグラフィックスにおいて興味深い、そして難しい問題である。
既存の方法の多くは、編集のための条件付き入力としてよく描かれたスケッチやマスクを必要とするが、これらの相互作用は単純でも効率的でもない。
退屈なインタラクションプロセスからユーザを解放するために,ユーザが提供するテキストや参照画像に基づいて,毛髪属性を個別に,あるいは共同で操作できる新しいヘア編集インタラクションモードを提案する。
この目的のために,画像とテキストの条件を共有埋め込み空間にエンコードし,コントラスト言語-画像事前学習(CLIP)モデルの強力な画像テキスト表現機能を活用することで,統一的なヘア編集フレームワークを提案する。
念入りに設計されたネットワーク構造と損失関数により,我々のフレームワークは,高品質な毛髪編集を行うことができる。
大規模な実験では,操作精度,編集結果の視覚的リアリズム,無関係な属性保存の観点から,アプローチの優位性を示す。
プロジェクトリポジトリはhttps://github.com/wty-ustc/HairCLIPです。
関連論文リスト
- Text-Driven Image Editing via Learnable Regions [74.45313434129005]
本研究では,ユーザが提供するマスクやスケッチを必要とせずに,テキストプロンプトによって駆動される領域ベースの画像編集手法を提案する。
この単純なアプローチにより、現在の画像生成モデルと互換性のあるフレキシブルな編集が可能になることを示す。
実験では,提案した言語記述に対応する忠実度とリアリズムの高い画像の操作において,提案手法の競合性能を示す。
論文 参考訳(メタデータ) (2023-11-28T02:27:31Z) - HairCLIPv2: Unifying Hair Editing via Proxy Feature Blending [94.39417893972262]
HairCLIPは、テキスト記述や参照画像に基づいた毛髪編集を可能にする最初の作品である。
本稿では,上述したすべてのインタラクションを一つの統一フレームワークでサポートすることを目的としたHairCLIPv2を提案する。
鍵となるアイデアは、すべてのヘア編集タスクをヘア転写タスクに変換し、それに応じて編集条件を異なるプロキシに変換することである。
論文 参考訳(メタデータ) (2023-10-16T17:59:58Z) - Visual Instruction Inversion: Image Editing via Visual Prompting [34.96778567507126]
本稿では,視覚的プロンプトによる画像編集手法を提案する。
テキストと画像の拡散モデルのリッチで事前訓練された編集機能を利用して、視覚的なプロンプトを編集命令に反転させる。
論文 参考訳(メタデータ) (2023-07-26T17:50:10Z) - CLIP-Guided StyleGAN Inversion for Text-Driven Real Image Editing [22.40686064568406]
提案するCLIPInverterは,複数属性の変更を効率よく,かつ確実に行うことのできる,テキスト駆動型画像編集手法である。
本手法は,人間の顔,猫,鳥など,さまざまな領域における操作精度とフォトリアリズムにおいて,競合するアプローチよりも優れる。
論文 参考訳(メタデータ) (2023-07-17T11:29:48Z) - FICE: Text-Conditioned Fashion Image Editing With Guided GAN Inversion [16.583537785874604]
本研究では,多種多様なテキスト記述を扱える新しいテキスト条件編集モデルFICEを提案する。
FICEは、非常にリアルなファッションイメージを生成し、既存の競合するアプローチよりも強力な編集性能をもたらす。
論文 参考訳(メタデータ) (2023-01-05T15:33:23Z) - Imagen Editor and EditBench: Advancing and Evaluating Text-Guided Image
Inpainting [53.708523312636096]
本稿では,テキスト誘導画像のインペイントを微調整し,カスケード拡散モデルであるImagen Editorを提案する。
編集はテキストプロンプトに忠実で、オブジェクト検出器を使用してトレーニング中に塗装マスクを提案する。
質的,定量的な評価を改善するために,テキスト誘導画像の塗り絵の体系的ベンチマークであるEditBenchを導入する。
論文 参考訳(メタデータ) (2022-12-13T21:25:11Z) - Towards Counterfactual Image Manipulation via CLIP [106.94502632502194]
既存の方法は、顔画像の年齢や性別など、さまざまな視覚特性をリアルに編集することができる。
コントラスト・ランゲージ・イメージ・プレトレーニング(CLIP)を用いたテキスト駆動方式でこの問題を考察する。
定義済みのCLIP空間の方向を利用して、異なる視点から所望の方向に向けて編集を誘導する新しいコントラスト損失を設計する。
論文 参考訳(メタデータ) (2022-07-06T17:02:25Z) - MichiGAN: Multi-Input-Conditioned Hair Image Generation for Portrait
Editing [122.82964863607938]
MichiGANはインタラクティブな顔料の毛髪操作のための条件付き画像生成手法である。
我々は, 形状, 構造, 外観, 背景など, 主要毛髪の視覚的要因のすべてをユーザコントロールする。
また,直感的かつ高レベルなユーザ入力を投影することで,髪の直感的な操作を可能にするインタラクティブな肖像画毛髪編集システムを構築した。
論文 参考訳(メタデータ) (2020-10-30T17:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。