論文の概要: Pose Guided Image Generation from Misaligned Sources via Residual Flow
Based Correction
- arxiv url: http://arxiv.org/abs/2202.00843v1
- Date: Wed, 2 Feb 2022 01:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 14:57:22.274424
- Title: Pose Guided Image Generation from Misaligned Sources via Residual Flow
Based Correction
- Title(参考訳): 残留流に基づく補正によるミスアライメント音源からのポスガイド画像生成
- Authors: Jiawei Lu, He Wang, Tianjia Shao, Yin Yang, Kun Zhou
- Abstract要約: そこで本稿では,ビューアングルやポーズ,表情など,ソース間の多種多様なバリエーションを統一的な枠組みでモデル化する手法を提案する。
我々は、人体、顔、都市シーン、および3Dオブジェクトを含むさまざまなデータに対するアプローチを検証する。
- 参考スコア(独自算出の注目度): 31.39424991391106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating new images with desired properties (e.g. new view/poses) from
source images has been enthusiastically pursued recently, due to its wide range
of potential applications. One way to ensure high-quality generation is to use
multiple sources with complementary information such as different views of the
same object. However, as source images are often misaligned due to the large
disparities among the camera settings, strong assumptions have been made in the
past with respect to the camera(s) or/and the object in interest, limiting the
application of such techniques. Therefore, we propose a new general approach
which models multiple types of variations among sources, such as view angles,
poses, facial expressions, in a unified framework, so that it can be employed
on datasets of vastly different nature. We verify our approach on a variety of
data including humans bodies, faces, city scenes and 3D objects. Both the
qualitative and quantitative results demonstrate the better performance of our
method than the state of the art.
- Abstract(参考訳): ソース画像から所望の特性(例えば、新しいビュー/プレイス)を持つ新しい画像を生成することは、その幅広い潜在的な応用のために、近年熱心に追求されている。
高品質な生成を保証する方法の1つは、同じオブジェクトの異なるビューのような補完的な情報を持つ複数のソースを使用することである。
しかし、カメラ設定の相違により、しばしばソース画像が不一致となるため、カメラやオブジェクトに関して、過去に強い仮定がなされており、そのような技術の適用が制限されている。
そこで本研究では,ビューアングルやポーズ,表情など,ソース間の多種多様なバリエーションを統一的な枠組みでモデル化し,異なる性質のデータセットに適用する手法を提案する。
我々は、人体、顔、都市シーン、および3Dオブジェクトを含むさまざまなデータに対するアプローチを検証する。
定性的かつ定量的な結果から,本手法の性能は最先端技術よりも優れていた。
関連論文リスト
- Generalizable Single-view Object Pose Estimation by Two-side Generating and Matching [19.730504197461144]
本稿では,RGB画像のみを用いてオブジェクトのポーズを決定するために,新しい一般化可能なオブジェクトポーズ推定手法を提案する。
本手法は,オブジェクトの参照画像1枚で操作し,3次元オブジェクトモデルやオブジェクトの複数ビューの必要性を解消する。
論文 参考訳(メタデータ) (2024-11-24T14:31:50Z) - A Global Depth-Range-Free Multi-View Stereo Transformer Network with Pose Embedding [76.44979557843367]
本稿では,事前の深度範囲を排除した新しい多視点ステレオ(MVS)フレームワークを提案する。
長距離コンテキスト情報を集約するMDA(Multi-view Disparity Attention)モジュールを導入する。
ソース画像のエピポーラ線上のサンプリング点に対応する電流画素の品質を明示的に推定する。
論文 参考訳(メタデータ) (2024-11-04T08:50:16Z) - Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - UpFusion: Novel View Diffusion from Unposed Sparse View Observations [66.36092764694502]
UpFusionは、参照画像のスパースセットが与えられたオブジェクトに対して、新しいビュー合成と3D表現を推論することができる。
本研究では,この機構により,付加された(未提示)画像の合成品質を向上しつつ,高忠実度な新規ビューを生成することができることを示す。
論文 参考訳(メタデータ) (2023-12-11T18:59:55Z) - Cross-domain Compositing with Pretrained Diffusion Models [34.98199766006208]
我々は,背景シーンから抽出した文脈情報で注入対象を注入する局所的反復的精錬方式を採用する。
本手法では,アノテーションやトレーニングを必要とせず,高品質で現実的な結果が得られる。
論文 参考訳(メタデータ) (2023-02-20T18:54:04Z) - Re-Imagen: Retrieval-Augmented Text-to-Image Generator [58.60472701831404]
検索用テキスト・ツー・イメージ・ジェネレータ(再画像)
検索用テキスト・ツー・イメージ・ジェネレータ(再画像)
論文 参考訳(メタデータ) (2022-09-29T00:57:28Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Wide-angle Image Rectification: A Survey [86.36118799330802]
広角画像は、基礎となるピンホールカメラモデルに反する歪みを含む。
これらの歪みを補正することを目的とした画像修正は、これらの問題を解決することができる。
本稿では、異なるアプローチで使用されるカメラモデルについて、詳細な説明と議論を行う。
次に,従来の幾何学に基づく画像修正手法と深層学習法の両方について検討する。
論文 参考訳(メタデータ) (2020-10-30T17:28:40Z) - Generating Annotated High-Fidelity Images Containing Multiple Coherent
Objects [10.783993190686132]
コンテキスト情報を明示的に必要とせずに、複数のオブジェクトで画像を合成できるマルチオブジェクト生成フレームワークを提案する。
我々は,Multi-MNISTおよびCLEVRデータセットを用いた実験により,コヒーレンシーと忠実さの保存方法を示す。
論文 参考訳(メタデータ) (2020-06-22T11:33:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。