論文の概要: FashionPose: Text to Pose to Relight Image Generation for Personalized Fashion Visualization
- arxiv url: http://arxiv.org/abs/2507.13311v1
- Date: Thu, 17 Jul 2025 17:30:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.594751
- Title: FashionPose: Text to Pose to Relight Image Generation for Personalized Fashion Visualization
- Title(参考訳): FashionPose:パーソナライズされたファッションビジュアライゼーションのための画像生成のためのテキスト
- Authors: Chuancheng Shi, Yixiang Chen, Burong Lei, Jichao Chen,
- Abstract要約: FashionPoseは、最初の統合されたテキスト・ツー・プレイス・ツー・ライティング・ジェネレーション・フレームワークである。
明示的なポーズアノテーションをテキスト駆動の条件付けに置き換えることで、FashionPoseは正確なポーズアライメント、忠実な衣服のレンダリング、フレキシブルな照明制御を可能にする。
実験は、パーソナライズされた仮想ファッションディスプレイのための実用的なソリューションを提供する、きめ細かいポーズ合成と効率、一貫性のあるリライティングを実証する。
- 参考スコア(独自算出の注目度): 0.29998889086656577
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Realistic and controllable garment visualization is critical for fashion e-commerce, where users expect personalized previews under diverse poses and lighting conditions. Existing methods often rely on predefined poses, limiting semantic flexibility and illumination adaptability. To address this, we introduce FashionPose, the first unified text-to-pose-to-relighting generation framework. Given a natural language description, our method first predicts a 2D human pose, then employs a diffusion model to generate high-fidelity person images, and finally applies a lightweight relighting module, all guided by the same textual input. By replacing explicit pose annotations with text-driven conditioning, FashionPose enables accurate pose alignment, faithful garment rendering, and flexible lighting control. Experiments demonstrate fine-grained pose synthesis and efficient, consistent relighting, providing a practical solution for personalized virtual fashion display.
- Abstract(参考訳): リアルでコントロール可能な衣料品の視覚化は、ユーザーがさまざまなポーズや照明条件下でパーソナライズされたプレビューを期待するファッションeコマースにとって重要である。
既存の方法は、しばしば事前に定義されたポーズに依存し、セマンティックな柔軟性と照度適応性を制限する。
これを解決するために、最初に統合されたテキスト・ツー・プレイス・ツー・ライティング・ジェネレーション・フレームワークであるFashionPoseを紹介します。
自然言語の記述から,まず2次元の人間のポーズを予測し,次に拡散モデルを用いて高忠実度人物画像を生成し,最後に同じテキスト入力でガイドされる軽量リライトモジュールを適用した。
明示的なポーズアノテーションをテキスト駆動の条件付けに置き換えることで、FashionPoseは正確なポーズアライメント、忠実な衣服のレンダリング、フレキシブルな照明制御を可能にする。
実験は、パーソナライズされた仮想ファッションディスプレイのための実用的なソリューションを提供する、きめ細かいポーズ合成と効率、一貫性のあるリライティングを実証する。
関連論文リスト
- One Model For All: Partial Diffusion for Unified Try-On and Try-Off in Any Pose [99.056324701764]
textbfOMFA (emphOne Model For All) は仮想トライオンとトライオフの両方のための統合拡散フレームワークである。
フレームワークは完全にマスクフリーで、単一のポートレートとターゲットのポーズのみを入力として必要とします。
試着タスクと試着タスクの両方で最先端の結果が得られ、仮想衣料合成のための実用的で一般化可能なソリューションを提供する。
論文 参考訳(メタデータ) (2025-08-06T15:46:01Z) - Fine-Grained Controllable Apparel Showcase Image Generation via Garment-Centric Outpainting [39.50293003775675]
潜在拡散モデル(LDM)に基づく新しい衣服中心のアウトペイント(GCO)フレームワークを提案する。
提案フレームワークは,テキストプロンプトと顔画像を用いて,所定の衣服を身に着けたファッションモデルをカスタマイズすることを目的としている。
論文 参考訳(メタデータ) (2025-03-03T08:30:37Z) - TEDRA: Text-based Editing of Dynamic and Photoreal Actors [59.480513384611804]
TEDRAはアバターのテキストベースの編集を可能にする最初の方法である。
我々は、実際の俳優の制御可能で高忠実なデジタルレプリカを作成するためにモデルを訓練する。
提供されるテキストプロンプトに基づいて動的アバターを変更する。
論文 参考訳(メタデータ) (2024-08-28T17:59:02Z) - URHand: Universal Relightable Hands [64.25893653236912]
URHandは、視点、ポーズ、イルミネーション、アイデンティティを一般化する最初の普遍的照らし手モデルである。
本モデルでは,携帯電話で撮影した画像によるパーソナライズが可能であり,新たな照明下でのフォトリアリスティックなレンダリングが可能である。
論文 参考訳(メタデータ) (2024-01-10T18:59:51Z) - MagicPose: Realistic Human Poses and Facial Expressions Retargeting with Identity-aware Diffusion [22.62170098534097]
人間の2次元ポーズと表情の拡散に基づくモデルであるMagicPoseを提案する。
画像拡散モデルの事前の知識を活用することで、MagicPoseは目に見えない人間のアイデンティティや複雑なポーズをうまく一般化する。
提案したモデルは使いやすく、安定拡散に対するプラグインモジュール/拡張と見なすことができる。
論文 参考訳(メタデータ) (2023-11-18T10:22:44Z) - FashionTex: Controllable Virtual Try-on with Text and Texture [29.7855591607239]
テキストとテクスチャの両方の利点を多段階のファッション操作に組み合わせたマルチモーダル・インタラクティブ・セッティングを提案する。
FashionTexフレームワークは、アノテーション付きのペアトレーニングデータなしで、布の種類や局所的なテクスチャパターンを意味的に制御することができる。
論文 参考訳(メタデータ) (2023-05-08T04:10:36Z) - LightPainter: Interactive Portrait Relighting with Freehand Scribble [79.95574780974103]
我々は、スクリブルベースのライティングシステムであるLightPainterを導入し、ユーザーが簡単にポートレート照明効果を操作できるようにする。
リライトモジュールをトレーニングするために,実際のユーザスクリブルを模倣する新しいスクリブルシミュレーション手法を提案する。
定量的および定性的な実験により,高品質でフレキシブルなポートレート照明編集機能を示す。
論文 参考訳(メタデータ) (2023-03-22T23:17:11Z) - Highly Personalized Text Embedding for Image Manipulation by Stable
Diffusion [34.662798793560995]
高度にパーソナライズされた(PerHi)テキスト埋め込みを用いたパーソナライズ手法を提案する。
本手法では, モデル微調整や識別子を必要としないが, 背景, テクスチャ, 動きを1つの画像とターゲットテキストで操作できる。
論文 参考訳(メタデータ) (2023-03-15T17:07:45Z) - FICE: Text-Conditioned Fashion Image Editing With Guided GAN Inversion [16.583537785874604]
本研究では,多種多様なテキスト記述を扱える新しいテキスト条件編集モデルFICEを提案する。
FICEは、非常にリアルなファッションイメージを生成し、既存の競合するアプローチよりも強力な編集性能をもたらす。
論文 参考訳(メタデータ) (2023-01-05T15:33:23Z) - HumanDiffusion: a Coarse-to-Fine Alignment Diffusion Framework for
Controllable Text-Driven Person Image Generation [73.3790833537313]
制御可能な人物画像生成は、デジタルヒューマンインタラクションや仮想トライオンといった幅広い応用を促進する。
テキスト駆動型人物画像生成のための粗大なアライメント拡散フレームワークHumanDiffusionを提案する。
論文 参考訳(メタデータ) (2022-11-11T14:30:34Z) - Pixel Sampling for Style Preserving Face Pose Editing [53.14006941396712]
ジレンマを解くための新しい2段階のアプローチとして,顔のポーズ操作のタスクを顔に塗布する手法を提案する。
入力面から画素を選択的にサンプリングし、その相対位置をわずかに調整することにより、顔編集結果は、画像スタイルとともにアイデンティティ情報を忠実に保持する。
3D顔のランドマークをガイダンスとして、3自由度(ヨー、ピッチ、ロール)で顔のポーズを操作できるので、より柔軟な顔のポーズ編集が可能になる。
論文 参考訳(メタデータ) (2021-06-14T11:29:29Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。