論文の概要: What's in a Decade? Transforming Faces Through Time
- arxiv url: http://arxiv.org/abs/2210.06642v2
- Date: Mon, 17 Oct 2022 03:01:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 13:32:58.452044
- Title: What's in a Decade? Transforming Faces Through Time
- Title(参考訳): 10年って何?
時間を通して顔を変える
- Authors: Eric Ming Chen, Jin Sun, Apoorv Khandelwal, Dani Lischinski, Noah
Snavely, Hadar Averbuch-Elor
- Abstract要約: 私たちは1880年代から現在までの10年ごとに1000枚以上の肖像画を含むFaces Through Timeデータセットを組み立てています。
われわれは、ある10年間に撮影された肖像画が、他の数十年で撮影されたものである場合、どのように見えるのかを想像しながら、時間をかけて肖像画を再合成する枠組みを提示する。
- 参考スコア(独自算出の注目度): 70.78847389726937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How can one visually characterize people in a decade? In this work, we
assemble the Faces Through Time dataset, which contains over a thousand
portrait images from each decade, spanning the 1880s to the present day. Using
our new dataset, we present a framework for resynthesizing portrait images
across time, imagining how a portrait taken during a particular decade might
have looked like, had it been taken in other decades. Our framework optimizes a
family of per-decade generators that reveal subtle changes that differentiate
decade--such as different hairstyles or makeup--while maintaining the identity
of the input portrait. Experiments show that our method is more effective in
resynthesizing portraits across time compared to state-of-the-art
image-to-image translation methods, as well as attribute-based and
language-guided portrait editing models. Our code and data will be available at
https://facesthroughtime.github.io
- Abstract(参考訳): 10年でどうやって人を視覚的に特徴づけることができるのか?
本研究では,1880年代から現在に至るまでの10年ごとに1000枚以上の肖像画画像を含む時系列データセットを用いて,顔の組み立てを行う。
新しいデータセットを使って、時間をかけて肖像画を再合成する枠組みを提示し、ある10年間に撮影されたポートレートが、他の数十年で撮影されたものであることを想像した。
私たちのフレームワークは、入力ポートレートのアイデンティティを維持しながら、10年ごとに異なる髪型や化粧を区別する微妙な変化を明らかにする、デケードごとのジェネレータのファミリーを最適化します。
本手法は,最新の画像から画像への翻訳手法や属性ベース,言語ガイド付きポートレート編集モデルと比較して,時系列のポートレートの合成に有効であることを示す。
私たちのコードとデータはhttps://facesthroughtime.github.ioで入手できる。
関連論文リスト
- When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - Enhancing the Authenticity of Rendered Portraits with
Identity-Consistent Transfer Learning [30.64677966402945]
本稿では,「不気味な谷」効果を効果的に緩和できる写真リアルな肖像画生成フレームワークを提案する。
私たちのキーとなる考え方は、トランスファーラーニングを使って、レンダリングされた肖像画の潜在空間から実際の肖像画へのアイデンティティ一貫性のあるマッピングを学ぶことです。
論文 参考訳(メタデータ) (2023-10-06T12:20:40Z) - ReliTalk: Relightable Talking Portrait Generation from a Single Video [62.47116237654984]
ReliTalkは、モノクロビデオから再生可能なオーディオ駆動型音声ポートレート生成のための新しいフレームワークである。
我々の重要な洞察は、ポートレートの反射を暗黙的に学習された音声駆動の顔の正常と画像から分解することである。
論文 参考訳(メタデータ) (2023-09-05T17:59:42Z) - Context-Preserving Two-Stage Video Domain Translation for Portrait
Stylization [68.10073215175055]
本稿では,時間的コヒーレントなスタイリングビデオを生成するためのモデルを強制する客観的機能を備えた新しい2段階ビデオ翻訳フレームワークを提案する。
我々のモデルは1フレームあたり0.011秒のレイテンシでリアルタイムに動作し、パラメータは5.6Mしか必要としない。
論文 参考訳(メタデータ) (2023-05-30T15:46:25Z) - Adversarially-Guided Portrait Matting [0.0]
限られたデータソースを用いてアルファ行列を生成する方法を提案する。
ポートレートデータセット上で,新しいトランスフォーマーモデル(StyleMatte)を事前訓練する。
このモデルを用いて、StyleMatteGAN(StyleMatteGAN)ベースのネットワークのための画像マスクペアを提供する。
論文 参考訳(メタデータ) (2023-05-04T16:45:04Z) - Portrait Interpretation and a Benchmark [49.484161789329804]
提案した肖像画解釈は,人間の知覚を新たな体系的視点から認識する。
我々は,身元,性別,年齢,体格,身長,表情,姿勢をラベル付けした25万枚の画像を含む新しいデータセットを構築した。
筆者らの実験結果から, 肖像画解釈に関わるタスクを組み合わせることで, メリットが得られることが示された。
論文 参考訳(メタデータ) (2022-07-27T06:25:09Z) - Image Retrieval from Contextual Descriptions [22.084939474881796]
文脈記述による画像検索(ImageCoDe)
文脈記述に基づく10の最小限のコントラスト候補から正しい画像を取得するためのモデル。
ビデオフレームでは20.9、静的画像では59.4の精度で、人間では90.8である。
論文 参考訳(メタデータ) (2022-03-29T19:18:12Z) - CtlGAN: Few-shot Artistic Portraits Generation with Contrastive Transfer
Learning [77.27821665339492]
CtlGANは、新しいコントラッシブ・トランスファー学習戦略を備えた、数発のアート・ポートレート生成モデルである。
ソースドメインで事前訓練したStyleGANを,対象の芸術領域に適応させる。
実面をZ+空間に埋め込んだ新しいエンコーダを提案し,適応型デコーダに対処するためのデュアルパストレーニング戦略を提案する。
論文 参考訳(メタデータ) (2022-03-16T13:28:17Z) - Lifespan Age Transformation Synthesis [40.963816368819415]
本稿では,新しい画像から画像へ生成する対向的ネットワークアーキテクチャを提案する。
我々のフレームワークは、1枚の写真から0歳から70歳までの完全な頭部像を予測できる。
論文 参考訳(メタデータ) (2020-03-21T22:48:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。