論文の概要: Total Selfie: Generating Full-Body Selfies
- arxiv url: http://arxiv.org/abs/2308.14740v2
- Date: Wed, 3 Apr 2024 17:42:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 23:17:50.901745
- Title: Total Selfie: Generating Full-Body Selfies
- Title(参考訳): 全自撮り:全自撮りの自撮り
- Authors: Bowei Chen, Brian Curless, Ira Kemelmacher-Shlizerman, Steven M. Seitz,
- Abstract要約: 腕長で撮影された写真から全身自撮り画像を生成する手法を提案する。
我々のアプローチは、顔と身体の4つの自撮り写真、背景画像、および所望のターゲットポーズでフルボディ自撮りを生成する。
- 参考スコア(独自算出の注目度): 21.020454186769655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method to generate full-body selfies from photographs originally taken at arms length. Because self-captured photos are typically taken close up, they have limited field of view and exaggerated perspective that distorts facial shapes. We instead seek to generate the photo some one else would take of you from a few feet away. Our approach takes as input four selfies of your face and body, a background image, and generates a full-body selfie in a desired target pose. We introduce a novel diffusion-based approach to combine all of this information into high-quality, well-composed photos of you with the desired pose and background.
- Abstract(参考訳): 腕長で撮影された写真から全身自撮り画像を生成する手法を提案する。
自撮り写真は通常、近くで撮影されるので、視野は限られており、顔の形を歪ませる視界が誇張されている。
その代わり、数フィート離れた場所から、他の誰かがあなたを撮る写真を作り出そうとしています。
我々のアプローチは、顔と身体の4つの自撮り写真、背景画像、および所望のターゲットポーズでフルボディ自撮りを生成する。
われわれは、これらの情報すべてを高品質でよく構成された写真と、望ましいポーズと背景とに組み合わせるための、新しい拡散ベースのアプローチを導入する。
関連論文リスト
- Context-Aware Full Body Anonymization using Text-to-Image Diffusion Models [1.5088726951324294]
匿名化は、現実世界のデータセットにおける個人の賢明な情報を保護する上で重要な役割を担っている。
本稿では,Stable Diffusionを生成バックエンドとして利用する全身匿名化のためのワークフローを提案する。
提案手法は,画像品質,解像度,インセプションスコア(IS),Frechet Inception Distance(FID)に対して,最先端の匿名化パイプラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-11T06:04:30Z) - SUPER: Selfie Undistortion and Head Pose Editing with Identity Preservation [37.89326064230339]
Superは、クローズアップ顔作物の歪みを排除し、頭部のポーズを調整する新しい方法である。
我々は,カメラパラメータと顔潜時符号を最適化することにより,顔画像の3D GANインバージョンを行う。
得られた潜伏符号から深度を推定し、深度誘導型3Dメッシュを作成し、更新されたカメラパラメータでレンダリングし、歪んだポートレートを得る。
論文 参考訳(メタデータ) (2024-06-18T15:14:14Z) - Selfie Taking with Facial Expression Recognition Using Omni-directional Camera [0.0]
そこで本研究では,全方向カメラを用いて複数人で自撮りを行う手法を提案する。
具体的には、全方向カメラで数秒のビデオを撮り、その後すべてのフレームで顔検出を行う。
提案手法は, すべてのフレームで表情認識を行い, 参加者が最も幸福なフレームを抽出する。
論文 参考訳(メタデータ) (2024-05-25T01:07:29Z) - URHand: Universal Relightable Hands [64.25893653236912]
URHandは、視点、ポーズ、イルミネーション、アイデンティティを一般化する最初の普遍的照らし手モデルである。
本モデルでは,携帯電話で撮影した画像によるパーソナライズが可能であり,新たな照明下でのフォトリアリスティックなレンダリングが可能である。
論文 参考訳(メタデータ) (2024-01-10T18:59:51Z) - VINECS: Video-based Neural Character Skinning [82.39776643541383]
ポーズ依存のスキン重みを持つ完全リップ文字を作成するための完全自動アプローチを提案する。
提案手法は高密度4Dスキャンに頼らず,最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-03T08:35:53Z) - Photoswap: Personalized Subject Swapping in Images [56.2650908740358]
Photowapは参照画像から対象の視覚概念を学習し、事前訓練された拡散モデルを用いて対象画像に置き換える。
Photowapは、被験者のスワップ、背景保存、全体的な品質において、人間の評価におけるベースラインの手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-05-29T17:56:13Z) - UPGPT: Universal Diffusion Model for Person Image Generation, Editing
and Pose Transfer [15.15576618501609]
テキスト・ツー・イメージ・モデル(T2I)は、人々の高品質な画像を生成するために使われてきた。
しかし、生成プロセスのランダムな性質のため、その人は外見が異なる。
テキスト,ポーズ,視覚的プロンプトを受け入れるマルチモーダル拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-18T10:05:37Z) - HumanGAN: A Generative Model of Humans Images [78.6284090004218]
本研究では,ポーズ,局所的な身体部分の外観,衣料品スタイルを制御できる服装者の画像生成モデルを提案する。
本モデルでは,正規化されたポーズ非依存空間に部分的潜在性出現ベクトルをエンコードし,異なるポーズに誘導し,様々な姿勢で身体や衣服の外観を保っている。
論文 参考訳(メタデータ) (2021-03-11T19:00:38Z) - PoNA: Pose-guided Non-local Attention for Human Pose Transfer [105.14398322129024]
本稿では, 簡易ブロックを用いたGAN(Generative Adversarial Network)を用いた新しいポーズ転送手法を提案する。
我々のモデルはより鮮明でよりリアルな画像を生成するが、パラメータは少なく、速度も速い。
論文 参考訳(メタデータ) (2020-12-13T12:38:29Z) - Unselfie: Translating Selfies to Neutral-pose Portraits in the Wild [57.944605468653414]
自撮りでは、人間の腕の長さのような制約が身体のポーズを不自然に見せることが多い。
我々は、自撮り写真を中立的な肖像画に自動的に変換する新しい写真変換である$textitunselfie$を紹介した。
提案するポーズ検索モジュールは,リポジング作業を容易にし,複数のニュートラルな結果を生成することができる。
論文 参考訳(メタデータ) (2020-07-29T19:21:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。