論文の概要: Casual 6-DoF: free-viewpoint panorama using a handheld 360 camera
- arxiv url: http://arxiv.org/abs/2203.16756v1
- Date: Thu, 31 Mar 2022 02:25:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-02 07:45:32.603688
- Title: Casual 6-DoF: free-viewpoint panorama using a handheld 360 camera
- Title(参考訳): カジュアルな6dof:360度カメラ搭載のフリービューポイントパノラマ
- Authors: Rongsen Chen, Fang-Lue Zhang, Simon Finnie, Andrew Chalmers, Teahyun
Rhee
- Abstract要約: 従来の360デグカメラで捉えた360デグパノラマの非構造コレクションを用いて,広い範囲で6-DoF体験を提供する新しい手法を提案する。
提案手法は,360degデータキャプチャ,高品質な球面深度パノラマ生成のための新しい深度推定,高忠実度自由視点生成からなる。
- 参考スコア(独自算出の注目度): 5.170808515570039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Six degrees-of-freedom (6-DoF) video provides telepresence by enabling users
to move around in the captured scene with a wide field of regard. Compared to
methods requiring sophisticated camera setups, the image-based rendering method
based on photogrammetry can work with images captured with any poses, which is
more suitable for casual users. However, existing image-based rendering methods
are based on perspective images. When used to reconstruct 6-DoF views, it often
requires capturing hundreds of images, making data capture a tedious and
time-consuming process. In contrast to traditional perspective images,
360{\deg} images capture the entire surrounding view in a single shot, thus,
providing a faster capturing process for 6-DoF view reconstruction. This paper
presents a novel method to provide 6-DoF experiences over a wide area using an
unstructured collection of 360{\deg} panoramas captured by a conventional
360{\deg} camera. Our method consists of 360{\deg} data capturing, novel depth
estimation to produce a high-quality spherical depth panorama, and
high-fidelity free-viewpoint generation. We compared our method against
state-of-the-art methods, using data captured in various environments. Our
method shows better visual quality and robustness in the tested scenes.
- Abstract(参考訳): 6自由度(6-DoF)ビデオは、ユーザーが撮影シーンを広い視野で移動できるようにすることで、テレプレゼンスを提供する。
高度なカメラ設定を必要とする手法と比較して、フォトグラム法に基づく画像ベースのレンダリング手法は、どんなポーズでも撮影できるが、これはカジュアルなユーザーに適している。
しかし、既存の画像ベースのレンダリング手法は視点画像に基づいている。
6-DoFビューを再構築する際には、数百の画像をキャプチャする必要があることが多い。
従来の視点画像とは対照的に、360{\deg}画像は周囲のビュー全体を単一のショットでキャプチャするので、より高速な6-DoFビュー再構成プロセスを提供する。
本稿では,従来の360{\deg}カメラで捉えた360{\deg}パノラマの非構造コレクションを用いて,広帯域での6-DoF体験を実現する手法を提案する。
提案手法は,360{\deg}データキャプチャ,高品質な球面深度パノラマ生成のための新しい深度推定,高忠実度自由視点生成からなる。
本手法は,様々な環境から取得したデータを用いて,最先端の手法と比較した。
本手法は,テストシーンにおける視覚的品質とロバスト性を示す。
関連論文リスト
- DiffPano: Scalable and Consistent Text to Panorama Generation with Spherical Epipolar-Aware Diffusion [60.45000652592418]
本稿では,テキスト駆動型パノラマ生成フレームワークDiffPanoを提案し,拡張性,一貫性,多様なパノラマシーン生成を実現する。
DiffPanoは、不明瞭なテキスト記述とカメラのポーズによって、一貫した多様なパノラマ画像を生成することができることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:57:02Z) - Sp2360: Sparse-view 360 Scene Reconstruction using Cascaded 2D Diffusion Priors [51.36238367193988]
潜時拡散モデル(LDM)を用いた360度3次元シーンのスパースビュー再構成に挑戦する。
SparseSplat360は,未完成の細部を埋めたり,新しいビューをクリーンにするために,インペイントとアーティファクト除去のカスケードを利用する手法である。
提案手法は,9つの入力ビューから360度映像全体を生成する。
論文 参考訳(メタデータ) (2024-05-26T11:01:39Z) - OmniColor: A Global Camera Pose Optimization Approach of LiDAR-360Camera Fusion for Colorizing Point Clouds [15.11376768491973]
単純で効率的な3D表現としてのカラーポイントクラウドは、様々な分野において多くの利点がある。
本稿では,独立系360度カメラを用いて点雲をカラー化するための,新規で効率的なアルゴリズムであるOmniColorを提案する。
論文 参考訳(メタデータ) (2024-04-06T17:41:36Z) - See360: Novel Panoramic View Interpolation [24.965259708297932]
See360は、潜在空間視点推定を用いた360パノラマビューのための汎用的で効率的なフレームワークである。
提案手法は,4つのデータセットに対する任意のビューのリアルタイムレンダリングを実現するのに十分な汎用性を有することを示す。
論文 参考訳(メタデータ) (2024-01-07T09:17:32Z) - PERF: Panoramic Neural Radiance Field from a Single Panorama [109.31072618058043]
PERFはパノラマ性神経放射場を1つのパノラマから訓練する新しいビュー合成フレームワークである。
本研究では,360度2Dシーンを3Dシーンに持ち上げるために,新しい共同RGBDインペイント法とプログレッシブ・インペイント・アンド・エラスティング法を提案する。
PERFは,パノラマから3D,テキストから3D,3Dシーンのスタイリングなど,現実世界のアプリケーションに広く利用することができる。
論文 参考訳(メタデータ) (2023-10-25T17:59:01Z) - NeO 360: Neural Fields for Sparse View Synthesis of Outdoor Scenes [59.15910989235392]
屋外シーンのスパースビュー合成のためのNeO 360, Neural Fieldを紹介する。
NeO 360は、単一のまたは少数のRGB画像から360degのシーンを再構成する一般化可能な方法である。
我々の表現は、Voxel-basedとBird's-eye-view (BEV)の両方の表現の長所を組み合わせたものである。
論文 参考訳(メタデータ) (2023-08-24T17:59:50Z) - PanoGRF: Generalizable Spherical Radiance Fields for Wide-baseline
Panoramas [54.4948540627471]
広帯域パノラマのための一般化可能な球面放射場パノGRFを提案する。
パノGRFは、視線画像に基づいて訓練された一般化可能な放射場とは異なり、パノラマからパースペクティブへの変換から情報損失を回避する。
複数のパノラマデータセットの結果は、パノGRFが最先端の一般化可能なビュー合成法よりも著しく優れていることを示している。
論文 参考訳(メタデータ) (2023-06-02T13:35:07Z) - 360MonoDepth: High-Resolution 360{\deg} Monocular Depth Estimation [15.65828728205071]
360degデータでは 単分子深度推定は 依然として課題です
現在のCNNベースのメソッドは、GPUメモリが限られているため、そのような高解像度をサポートしない。
タンジェント画像を用いた高解像度360deg画像からの単眼深度推定のためのフレキシブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-30T18:57:29Z) - Real-time dense 3D Reconstruction from monocular video data captured by
low-cost UAVs [0.3867363075280543]
リアルタイム3d再構築は,ナビゲーションや緊急時のライブ評価など,多数のアプリケーションにメリットがある環境の高速密マッピングを可能にする。
ほとんどのリアルタイム対応のアプローチとは対照的に、我々のアプローチは明示的な深度センサーを必要としない。
建物周辺を斜め視で飛行する無人航空機(UAV)の自己動作を利用して、選択された画像のカメラ軌道と深度の両方を、十分な新規な内容で推定します。
論文 参考訳(メタデータ) (2021-04-21T13:12:17Z) - Learning to compose 6-DoF omnidirectional videos using multi-sphere
images [16.423725132964776]
本研究では,3D ConvNet を用いて,6-DoF VR で体験可能な多球面画像表現を生成するシステムを提案する。
このシステムは、深度マップやセグメンテーションマスクを必要とせずに、従来の全方向VRカメラの映像を直接利用します。
高品質なアーティファクトフリー6-DoFコンテンツに対する基礎的真理生成手法を提案し,研究・開発コミュニティで利用することができる。
論文 参考訳(メタデータ) (2021-03-10T03:09:55Z) - Sampling Based Scene-Space Video Processing [89.49726406622842]
ビデオ処理のための新しいサンプリングベースのフレームワークを提案する。
奥行きのミスやカメラのポーズ推定がある場合、高品質なシーン空間ビデオ効果を可能にする。
カジュアルにキャプチャーされた、手持ちの、動く、圧縮された、モノラルなビデオの結果を提示する。
論文 参考訳(メタデータ) (2021-02-05T05:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。