論文の概要: Total Selfie: Generating Full-Body Selfies
- arxiv url: http://arxiv.org/abs/2308.14740v2
- Date: Wed, 3 Apr 2024 17:42:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 23:17:50.901745
- Title: Total Selfie: Generating Full-Body Selfies
- Title(参考訳): 全自撮り:全自撮りの自撮り
- Authors: Bowei Chen, Brian Curless, Ira Kemelmacher-Shlizerman, Steven M. Seitz,
- Abstract要約: 腕長で撮影された写真から全身自撮り画像を生成する手法を提案する。
我々のアプローチは、顔と身体の4つの自撮り写真、背景画像、および所望のターゲットポーズでフルボディ自撮りを生成する。
- 参考スコア(独自算出の注目度): 21.020454186769655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method to generate full-body selfies from photographs originally taken at arms length. Because self-captured photos are typically taken close up, they have limited field of view and exaggerated perspective that distorts facial shapes. We instead seek to generate the photo some one else would take of you from a few feet away. Our approach takes as input four selfies of your face and body, a background image, and generates a full-body selfie in a desired target pose. We introduce a novel diffusion-based approach to combine all of this information into high-quality, well-composed photos of you with the desired pose and background.
- Abstract(参考訳): 腕長で撮影された写真から全身自撮り画像を生成する手法を提案する。
自撮り写真は通常、近くで撮影されるので、視野は限られており、顔の形を歪ませる視界が誇張されている。
その代わり、数フィート離れた場所から、他の誰かがあなたを撮る写真を作り出そうとしています。
我々のアプローチは、顔と身体の4つの自撮り写真、背景画像、および所望のターゲットポーズでフルボディ自撮りを生成する。
われわれは、これらの情報すべてを高品質でよく構成された写真と、望ましいポーズと背景とに組み合わせるための、新しい拡散ベースのアプローチを導入する。
関連論文リスト
- URHand: Universal Relightable Hands [64.25893653236912]
URHandは、視点、ポーズ、イルミネーション、アイデンティティを一般化する最初の普遍的照らし手モデルである。
本モデルでは,携帯電話で撮影した画像によるパーソナライズが可能であり,新たな照明下でのフォトリアリスティックなレンダリングが可能である。
論文 参考訳(メタデータ) (2024-01-10T18:59:51Z) - The Chosen One: Consistent Characters in Text-to-Image Diffusion Models [71.15152184631951]
そこで本研究では,テキストプロンプトのみを入力として,一貫した文字生成を完全自動化する手法を提案する。
本手法は, 基本手法と比較して, 即時アライメントと同一性整合性のバランスが良くなる。
論文 参考訳(メタデータ) (2023-11-16T18:59:51Z) - VINECS: Video-based Neural Character Skinning [82.39776643541383]
ポーズ依存のスキン重みを持つ完全リップ文字を作成するための完全自動アプローチを提案する。
提案手法は高密度4Dスキャンに頼らず,最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-03T08:35:53Z) - UPGPT: Universal Diffusion Model for Person Image Generation, Editing
and Pose Transfer [15.15576618501609]
テキスト・ツー・イメージ・モデル(T2I)は、人々の高品質な画像を生成するために使われてきた。
しかし、生成プロセスのランダムな性質のため、その人は外見が異なる。
テキスト,ポーズ,視覚的プロンプトを受け入れるマルチモーダル拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-18T10:05:37Z) - DiffusionRig: Learning Personalized Priors for Facial Appearance Editing [29.967273146028177]
DiffusionRigは、粗い3D顔モデルに条件付けされた拡散モデルである。
3D顔モデルの単純なレンダリングを、ある人のリアルな写真にマップする。
このようなパーソナライズされた事前情報でCGI-to- Photoマッピングを学習することで、DiffusionRigは、照明、表情、ヘッドポーズなどを“リグ”することができる。
論文 参考訳(メタデータ) (2023-04-13T17:58:00Z) - WSD: Wild Selfie Dataset for Face Recognition in Selfie Images [13.356502206849106]
我々は、異なるスマートフォンのセルフィーカメラから画像をキャプチャするWild Selfieデータセット(WSD)を開発した。
WSDデータセットには42人の画像45,424枚が含まれている。
各被験者の平均画像数は1,082で、各被験者の最大画像数は518と2,634である。
論文 参考訳(メタデータ) (2023-02-14T18:43:21Z) - Portrait Segmentation Using Deep Learning [0.0]
肖像画は、人物の絵、絵、写真、彫刻である。
スマートフォンを使って高画質のポートレート画像を生成するために、デジタル一眼レフからポートレートモードを再現する新しいアプローチを考え出した。
論文 参考訳(メタデータ) (2022-02-06T04:28:15Z) - HumanGAN: A Generative Model of Humans Images [78.6284090004218]
本研究では,ポーズ,局所的な身体部分の外観,衣料品スタイルを制御できる服装者の画像生成モデルを提案する。
本モデルでは,正規化されたポーズ非依存空間に部分的潜在性出現ベクトルをエンコードし,異なるポーズに誘導し,様々な姿勢で身体や衣服の外観を保っている。
論文 参考訳(メタデータ) (2021-03-11T19:00:38Z) - PoNA: Pose-guided Non-local Attention for Human Pose Transfer [105.14398322129024]
本稿では, 簡易ブロックを用いたGAN(Generative Adversarial Network)を用いた新しいポーズ転送手法を提案する。
我々のモデルはより鮮明でよりリアルな画像を生成するが、パラメータは少なく、速度も速い。
論文 参考訳(メタデータ) (2020-12-13T12:38:29Z) - Unselfie: Translating Selfies to Neutral-pose Portraits in the Wild [57.944605468653414]
自撮りでは、人間の腕の長さのような制約が身体のポーズを不自然に見せることが多い。
我々は、自撮り写真を中立的な肖像画に自動的に変換する新しい写真変換である$textitunselfie$を紹介した。
提案するポーズ検索モジュールは,リポジング作業を容易にし,複数のニュートラルな結果を生成することができる。
論文 参考訳(メタデータ) (2020-07-29T19:21:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。