論文の概要: PairHuman: A High-Fidelity Photographic Dataset for Customized Dual-Person Generation
- arxiv url: http://arxiv.org/abs/2511.16712v1
- Date: Thu, 20 Nov 2025 08:56:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:18.769314
- Title: PairHuman: A High-Fidelity Photographic Dataset for Customized Dual-Person Generation
- Title(参考訳): PairHuman: カスタマイズされたデュアルパーソン生成のための高忠実な写真データセット
- Authors: Ting Pan, Ye Wang, Peiguang Jing, Rui Ma, Zili Yi, Yu Liu,
- Abstract要約: PairHumanは、写真標準を満たす2人の肖像画を生成するために特別に設計された、最初の大規模なベンチマークデータセットである。
データセットには100万以上の画像が含まれており、さまざまなシーン、服装、二重対人インタラクションをキャプチャする。
我々のデータセットと方法は、人間の好みに合わせて、優れた視覚的品質で、高度にカスタマイズされたポートレートを生成する。
- 参考スコア(独自算出の注目度): 21.29027253118143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized dual-person portrait customization has considerable potential applications, such as preserving emotional memories and facilitating wedding photography planning. However, the absence of a benchmark dataset hinders the pursuit of high-quality customization in dual-person portrait generation. In this paper, we propose the PairHuman dataset, which is the first large-scale benchmark dataset specifically designed for generating dual-person portraits that meet high photographic standards. The PairHuman dataset contains more than 100K images that capture a variety of scenes, attire, and dual-person interactions, along with rich metadata, including detailed image descriptions, person localization, human keypoints, and attribute tags. We also introduce DHumanDiff, which is a baseline specifically crafted for dual-person portrait generation that features enhanced facial consistency and simultaneously balances in personalized person generation and semantic-driven scene creation. Finally, the experimental results demonstrate that our dataset and method produce highly customized portraits with superior visual quality that are tailored to human preferences. Our dataset is publicly available at https://github.com/annaoooo/PairHuman.
- Abstract(参考訳): パーソナライズされた二重人物の肖像画のカスタマイズは、感情的な記憶の保存や結婚式の撮影計画の促進など、潜在的な応用がある。
しかし、ベンチマークデータセットが存在しないことは、二重人物の肖像画生成における高品質なカスタマイズの追求を妨げる。
本稿ではPairHumanデータセットを提案する。PairHumanデータセットは、写真標準に適合する2人の人物像を生成するために設計された、最初の大規模ベンチマークデータセットである。
PairHumanデータセットには100万以上の画像が含まれており、さまざまなシーン、服装、二重対人インタラクションをキャプチャし、詳細な画像記述、人物のローカライゼーション、人間のキーポイント、属性タグを含む豊富なメタデータが含まれている。
また、DHumanDiffは、顔の一貫性を向上し、パーソナライズされた人物生成とセマンティックなシーン生成のバランスを同時に備えた、二重人物の肖像画生成用に特別に作られたベースラインである。
最後に、実験結果から、我々のデータセットと手法が、人間の好みに合わせて調整された優れた視覚的品質で、高度にカスタマイズされたポートレートを生成することを示した。
私たちのデータセットはhttps://github.com/annaoooo/PairHuman.comで公開されています。
関連論文リスト
- IC-Portrait: In-Context Matching for View-Consistent Personalized Portrait [51.18967854258571]
IC-Portraitは、パーソナライズされた肖像画生成のために個々のアイデンティティを正確にエンコードするように設計された新しいフレームワークである。
我々の重要な洞察は、事前学習された拡散モデルは、文脈内密対応マッチングのための高速学習者であるということである。
我々は,IC-Portraitが既存の最先端手法を定量的かつ質的に一貫的に上回っていることを示す。
論文 参考訳(メタデータ) (2025-01-28T18:59:03Z) - Personalized Representation from Personalized Generation [36.848215621708235]
我々は、パーソナライズされた合成データを用いてパーソナライズされた表現を学習するという課題を定式化する。
提案手法は,多様な下流タスクに対するパーソナライズされた表現学習を改善する。
論文 参考訳(メタデータ) (2024-12-20T18:59:03Z) - Controllable Human Image Generation with Personalized Multi-Garments [46.042383679103125]
BootCompは、テキストから画像への拡散モデルに基づく新しいフレームワークである。
本研究では,ヒトとマルチガーメントのペアからなる大規模な合成データセットを構築するためのデータ生成パイプラインを提案する。
ファッションドメインにおいて、異なるタイプの参照ベース生成に適応することで、フレームワークの幅広い適用性を示す。
論文 参考訳(メタデータ) (2024-11-25T12:37:13Z) - Diffusion Models are Efficient Data Generators for Human Mesh Recovery [55.37787289869703]
生成モデルにより生成された合成データはCGレンダリングデータと相補的であることを示す。
我々はHumanWildと呼ばれる最近の拡散モデルに基づく効率的なデータ生成パイプラインを提案する。
われわれの研究は、人間の3Dリカバリを現場に拡大するための道を開くかもしれない。
論文 参考訳(メタデータ) (2024-03-17T06:31:16Z) - CapHuman: Capture Your Moments in Parallel Universes [60.06408546134581]
CapHumanという新しいフレームワークを紹介します。
CapHumanはアイデンティティ機能をエンコードし、それを潜在空間に整列させることを学ぶ。
モデルに人間の頭部を柔軟で3D一貫性のある方法で制御させる前に、3D顔を導入する。
論文 参考訳(メタデータ) (2024-02-01T14:41:59Z) - Portrait Interpretation and a Benchmark [49.484161789329804]
提案した肖像画解釈は,人間の知覚を新たな体系的視点から認識する。
我々は,身元,性別,年齢,体格,身長,表情,姿勢をラベル付けした25万枚の画像を含む新しいデータセットを構築した。
筆者らの実験結果から, 肖像画解釈に関わるタスクを組み合わせることで, メリットが得られることが示された。
論文 参考訳(メタデータ) (2022-07-27T06:25:09Z) - StyleGAN-Human: A Data-Centric Odyssey of Human Generation [96.7080874757475]
この研究は、データ中心の観点から、"データエンジニアリング"における複数の重要な側面を調査します。
さまざまなポーズやテクスチャを抽出した230万以上のサンプルで、大規模な人間の画像データセットを収集し、注釈付けします。
本稿では,データサイズ,データ分布,データアライメントといった,スタイルGANに基づく人為的生成のためのデータ工学における3つの重要な要素について精査する。
論文 参考訳(メタデータ) (2022-04-25T17:55:08Z) - MyStyle: A Personalized Generative Prior [38.3436972491162]
MyStyleはパーソナライズされたディープジェネレーティブで、個人を数枚のショットで訓練する。
MyStyleは、特定の人の画像を再構成、拡張、編集することができる。
論文 参考訳(メタデータ) (2022-03-31T17:59:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。