論文の概要: Pose Guided Image Generation from Misaligned Sources via Residual Flow
Based Correction
- arxiv url: http://arxiv.org/abs/2202.00843v1
- Date: Wed, 2 Feb 2022 01:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 14:57:22.274424
- Title: Pose Guided Image Generation from Misaligned Sources via Residual Flow
Based Correction
- Title(参考訳): 残留流に基づく補正によるミスアライメント音源からのポスガイド画像生成
- Authors: Jiawei Lu, He Wang, Tianjia Shao, Yin Yang, Kun Zhou
- Abstract要約: そこで本稿では,ビューアングルやポーズ,表情など,ソース間の多種多様なバリエーションを統一的な枠組みでモデル化する手法を提案する。
我々は、人体、顔、都市シーン、および3Dオブジェクトを含むさまざまなデータに対するアプローチを検証する。
- 参考スコア(独自算出の注目度): 31.39424991391106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating new images with desired properties (e.g. new view/poses) from
source images has been enthusiastically pursued recently, due to its wide range
of potential applications. One way to ensure high-quality generation is to use
multiple sources with complementary information such as different views of the
same object. However, as source images are often misaligned due to the large
disparities among the camera settings, strong assumptions have been made in the
past with respect to the camera(s) or/and the object in interest, limiting the
application of such techniques. Therefore, we propose a new general approach
which models multiple types of variations among sources, such as view angles,
poses, facial expressions, in a unified framework, so that it can be employed
on datasets of vastly different nature. We verify our approach on a variety of
data including humans bodies, faces, city scenes and 3D objects. Both the
qualitative and quantitative results demonstrate the better performance of our
method than the state of the art.
- Abstract(参考訳): ソース画像から所望の特性(例えば、新しいビュー/プレイス)を持つ新しい画像を生成することは、その幅広い潜在的な応用のために、近年熱心に追求されている。
高品質な生成を保証する方法の1つは、同じオブジェクトの異なるビューのような補完的な情報を持つ複数のソースを使用することである。
しかし、カメラ設定の相違により、しばしばソース画像が不一致となるため、カメラやオブジェクトに関して、過去に強い仮定がなされており、そのような技術の適用が制限されている。
そこで本研究では,ビューアングルやポーズ,表情など,ソース間の多種多様なバリエーションを統一的な枠組みでモデル化し,異なる性質のデータセットに適用する手法を提案する。
我々は、人体、顔、都市シーン、および3Dオブジェクトを含むさまざまなデータに対するアプローチを検証する。
定性的かつ定量的な結果から,本手法の性能は最先端技術よりも優れていた。
関連論文リスト
- Extreme Two-View Geometry From Object Poses with Diffusion Models [21.16779160086591]
オブジェクト先行のパワーを利用して、極端な視点変化に直面した2次元幾何学を正確に決定する。
実験では, 大局的な視点変化に対して, 突如として頑健さと弾力性を示した。
論文 参考訳(メタデータ) (2024-02-05T08:18:47Z) - UpFusion: Novel View Diffusion from Unposed Sparse View Observations [66.36092764694502]
UpFusionは、参照画像のスパースセットが与えられたオブジェクトに対して、新しいビュー合成と3D表現を推論することができる。
本研究では,この機構により,付加された(未提示)画像の合成品質を向上しつつ,高忠実度な新規ビューを生成することができることを示す。
論文 参考訳(メタデータ) (2023-12-11T18:59:55Z) - Cross-domain Compositing with Pretrained Diffusion Models [34.98199766006208]
我々は,背景シーンから抽出した文脈情報で注入対象を注入する局所的反復的精錬方式を採用する。
本手法では,アノテーションやトレーニングを必要とせず,高品質で現実的な結果が得られる。
論文 参考訳(メタデータ) (2023-02-20T18:54:04Z) - Effective Data Augmentation With Diffusion Models [65.09758931804478]
我々は、事前訓練されたテキスト・画像拡散モデルによりパラメータ化された画像・画像変換によるデータ拡張の多様性の欠如に対処する。
本手法は,市販の拡散モデルを用いて画像のセマンティクスを編集し,いくつかのラベル付き例から新しい視覚概念に一般化する。
本手法は,実世界の雑草認識タスクと数ショット画像分類タスクにおいて評価し,テスト領域における精度の向上を観察する。
論文 参考訳(メタデータ) (2023-02-07T20:42:28Z) - Re-Imagen: Retrieval-Augmented Text-to-Image Generator [58.60472701831404]
検索用テキスト・ツー・イメージ・ジェネレータ(再画像)
検索用テキスト・ツー・イメージ・ジェネレータ(再画像)
論文 参考訳(メタデータ) (2022-09-29T00:57:28Z) - Explicitly Controllable 3D-Aware Portrait Generation [42.30481422714532]
ポーズ,アイデンティティ,表現,照明に関する意味的パラメータに基づいて,一貫した肖像画を生成する3次元肖像画生成ネットワークを提案する。
提案手法は,自然光の鮮明な表現によるリアルな肖像画を,自由視点で見る場合,先行技術よりも優れる。
論文 参考訳(メタデータ) (2022-09-12T17:40:08Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Wide-angle Image Rectification: A Survey [86.36118799330802]
広角画像は、基礎となるピンホールカメラモデルに反する歪みを含む。
これらの歪みを補正することを目的とした画像修正は、これらの問題を解決することができる。
本稿では、異なるアプローチで使用されるカメラモデルについて、詳細な説明と議論を行う。
次に,従来の幾何学に基づく画像修正手法と深層学習法の両方について検討する。
論文 参考訳(メタデータ) (2020-10-30T17:28:40Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z) - Generating Annotated High-Fidelity Images Containing Multiple Coherent
Objects [10.783993190686132]
コンテキスト情報を明示的に必要とせずに、複数のオブジェクトで画像を合成できるマルチオブジェクト生成フレームワークを提案する。
我々は,Multi-MNISTおよびCLEVRデータセットを用いた実験により,コヒーレンシーと忠実さの保存方法を示す。
論文 参考訳(メタデータ) (2020-06-22T11:33:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。