論文の概要: Stereo Unstructured Magnification: Multiple Homography Image for View
Synthesis
- arxiv url: http://arxiv.org/abs/2204.00156v1
- Date: Fri, 1 Apr 2022 01:39:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 14:44:18.302831
- Title: Stereo Unstructured Magnification: Multiple Homography Image for View
Synthesis
- Title(参考訳): 立体非構造化:ビュー合成のための複数ホログラフィー画像
- Authors: Qi Zhang and Xin Huang and Ying Feng and Xue Wang and Hongdong Li and
Qing Wang
- Abstract要約: 立体非構造倍率と呼ばれる一対の画像から一定の回転数で視線合成の問題を考察する。
固定された正規度と距離を持つシーン平面の集合からなる,新しいマルチホモグラフィ画像表現を提案する。
角度に基づくコストを導出し, 正規形状ごとのブレンディングを導出する。
- 参考スコア(独自算出の注目度): 72.09193030350396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the problem of view synthesis with certain amount of
rotations from a pair of images, what we called stereo unstructured
magnification. While the multi-plane image representation is well suited for
view synthesis with depth invariant, how to generalize it to unstructured views
remains a significant challenge. This is primarily due to the depth-dependency
caused by camera frontal parallel representation. Here we propose a novel
multiple homography image (MHI) representation, comprising of a set of scene
planes with fixed normals and distances. A two-stage network is developed for
novel view synthesis. Stage-1 is an MHI reconstruction module that predicts the
MHIs and composites layered multi-normal images along the normal direction.
Stage-2 is a normal-blending module to find blending weights. We also derive an
angle-based cost to guide the blending of multi-normal images by exploiting
per-normal geometry. Compared with the state-of-the-art methods, our method
achieves superior performance for view synthesis qualitatively and
quantitatively, especially for cases when the cameras undergo rotations.
- Abstract(参考訳): 本稿では,一対の画像から一定の回転量を持つビュー合成の問題,すなわちステレオ非構造拡大問題について検討する。
多面画像表現は深度不変なビュー合成に適しているが、非構造化ビューへの一般化は依然として大きな課題である。
これは主にカメラ前面の平行表現による深度依存性に起因する。
本稿では,固定正規と距離を持つシーン平面の集合からなる,新しい多重ホモグラフィ画像(mhi)表現を提案する。
新規なビュー合成のための2段階ネットワークを開発した。
Stage-1はMHIの再構成モジュールで、MHIと合成物が通常の方向に沿って多重正規画像を生成する。
stage-2 は、重みをブレンドする通常のモジュールである。
また,複数の正規画像のブレンドを誘導するための角度に基づくコストも導出する。
最新の手法と比較して,特にカメラが回転する場合には,映像合成の質的,定量的に優れた性能が得られる。
関連論文リスト
- MultiDiff: Consistent Novel View Synthesis from a Single Image [60.04215655745264]
MultiDiffは、単一のRGB画像からシーンを一貫した新しいビュー合成のための新しいアプローチである。
以上の結果から,MultiDiffは,課題の多いリアルタイムデータセットであるRealEstate10KとScanNetにおいて,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-26T17:53:51Z) - FDGaussian: Fast Gaussian Splatting from Single Image via Geometric-aware Diffusion Model [81.03553265684184]
FDGaussianは、シングルイメージ3D再構成のための新しい2段階フレームワークである。
最近の手法では、通常、事前訓練された2次元拡散モデルを用いて、入力画像から可塑性な新しいビューを生成する。
我々は,FDGaussianが様々な視点で高一貫性の画像を生成し,高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - DUSt3R: Geometric 3D Vision Made Easy [9.088432378237606]
Dense and Unconstrained Stereo 3D Reconstruction of arbitrary image collections。
本定式化は単眼および両眼の再建症例を円滑に統一することを示す。
私たちの定式化はシーンの3Dモデルと深度情報を直接提供しますが、興味深いことに、シームレスに回復できます。
論文 参考訳(メタデータ) (2023-12-21T18:52:14Z) - SAMPLING: Scene-adaptive Hierarchical Multiplane Images Representation
for Novel View Synthesis from a Single Image [60.52991173059486]
単一画像からの新規ビュー合成のためのシーン適応型階層型多面体画像表現であるSAMPlingを紹介する。
提案手法は,KITTIデータセット上の単一画像を用いて,大規模非有界屋外シーンにおいてかなりの性能向上を示す。
論文 参考訳(メタデータ) (2023-09-12T15:33:09Z) - Single-View View Synthesis with Self-Rectified Pseudo-Stereo [49.946151180828465]
疑似ステレオ視点を生成する前に、信頼性と明示的なステレオを利用する。
本稿では,自己修正ステレオ合成法を提案する。
本手法は,最先端の単一ビュービュー合成法およびステレオ合成法より優れる。
論文 参考訳(メタデータ) (2023-04-19T09:36:13Z) - Single-View View Synthesis in the Wild with Learned Adaptive Multiplane
Images [15.614631883233898]
既存の手法では, 単分子深度推定と層状深度表現による色塗布による有望な結果が示されている。
マルチプレーン画像(MPI)表現に基づく新しい手法を提案する。
合成データと実データの両方の実験により、我々のトレーニングされたモデルは驚くほどうまく機能し、最先端の結果が得られます。
論文 参考訳(メタデータ) (2022-05-24T02:57:16Z) - Practical Wide-Angle Portraits Correction with Deep Structured Models [17.62752136436382]
本稿では,写真から視線歪みを取り除くための深層学習手法について紹介する。
入力として広角ポートレートが与えられると、LineNet、ShapeNet、トランジションモジュールからなるカスケードネットワークを構築します。
定量的評価には,ラインの整合性と面の整合性という2つの新しい指標を導入する。
論文 参考訳(メタデータ) (2021-04-26T10:47:35Z) - Deep Two-View Structure-from-Motion Revisited [83.93809929963969]
2次元構造移動(SfM)は3次元再構成と視覚SLAMの基礎となる。
古典パイプラインの適切性を活用することで,深部2視点sfmの問題を再検討することを提案する。
本手法は,1)2つのフレーム間の密対応を予測する光フロー推定ネットワーク,2)2次元光フロー対応から相対カメラポーズを計算する正規化ポーズ推定モジュール,3)エピポーラ幾何を利用して探索空間を縮小し,密対応を洗練し,相対深度マップを推定するスケール不変深さ推定ネットワークからなる。
論文 参考訳(メタデータ) (2021-04-01T15:31:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。