論文の概要: Non-central panorama indoor dataset
- arxiv url: http://arxiv.org/abs/2401.17075v1
- Date: Tue, 30 Jan 2024 14:56:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 14:29:35.547204
- Title: Non-central panorama indoor dataset
- Title(参考訳): 非中央パノラマ屋内データセット
- Authors: Bruno Berenguel-Baeta, Jesus Bermudez-Cameo, Jose J. Guerrero
- Abstract要約: 室内シーン理解のためのノン中央パノラマのデータセットを提示する。
データセットはbf 2574 RGBの非中央パノラマで構成され、約650の部屋から収集される。
- 参考スコア(独自算出の注目度): 5.2178708158547025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Omnidirectional images are one of the main sources of information for
learning based scene understanding algorithms. However, annotated datasets of
omnidirectional images cannot keep the pace of these learning based algorithms
development. Among the different panoramas and in contrast to standard central
ones, non-central panoramas provide geometrical information in the distortion
of the image from which we can retrieve 3D information of the environment [2].
However, due to the lack of commercial non-central devices, up until now there
was no dataset of these kinds of panoramas. In this data paper, we present the
first dataset of non-central panoramas for indoor scene understanding. The
dataset is composed by {\bf 2574} RGB non-central panoramas taken in around 650
different rooms. Each panorama has associated a depth map and annotations to
obtain the layout of the room from the image as a structural edge map, list of
corners in the image, the 3D corners of the room and the camera pose. The
images are taken from photorealistic virtual environments and pixel-wise
automatically annotated.
- Abstract(参考訳): Omnidirectional Imageは、学習に基づくシーン理解アルゴリズムの主要な情報源の1つである。
しかしながら、全方位画像の注釈付きデータセットは、これらの学習に基づくアルゴリズム開発のペースを維持することができない。
異なるパノラマや標準中心パノラマとは対照的に、非中央パノラマは画像の歪みの幾何学的情報を提供し、そこから環境の3D情報を取得することができる[2]。
しかし、商用の非中央デバイスが不足していたため、これまでこの種のパノラマのデータセットは存在しなかった。
本稿では,屋内シーン理解のための非中央パノラマのデータセットについて述べる。
データセットは、約650の異なる部屋から採取されたRGBの非中央パノラマによって構成される。
それぞれのパノラマは、奥行きマップとアノテーションを関連付けて、画像から構造エッジマップ、画像内のコーナーのリスト、部屋の3Dコーナー、カメラのポーズとして部屋のレイアウトを取得する。
画像はフォトリアリスティックな仮想環境から撮影され、ピクセル単位で自動的に注釈付けされる。
関連論文リスト
- DiffPano: Scalable and Consistent Text to Panorama Generation with Spherical Epipolar-Aware Diffusion [60.45000652592418]
本稿では,テキスト駆動型パノラマ生成フレームワークDiffPanoを提案し,拡張性,一貫性,多様なパノラマシーン生成を実現する。
DiffPanoは、不明瞭なテキスト記述とカメラのポーズによって、一貫した多様なパノラマ画像を生成することができることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:57:02Z) - 360 in the Wild: Dataset for Depth Prediction and View Synthesis [66.58513725342125]
大規模な360$circ$ビデオデータセットを野放しに導入する。
このデータセットはインターネットから慎重に取り除かれ、世界中で様々な場所から収集されている。
データセットを構成する25K画像のそれぞれに、それぞれのカメラのポーズと深さマップが提供される。
論文 参考訳(メタデータ) (2024-06-27T05:26:38Z) - Scaled 360 layouts: Revisiting non-central panoramas [5.2178708158547025]
非中央パノラマを用いた室内環境の3次元レイアウト復元手法を提案する。
我々は、新しい幾何学的処理において、非中央プロジェクションシステムの特性を利用して、スケールしたレイアウトを復元する。
論文 参考訳(メタデータ) (2024-02-02T14:55:36Z) - OmniSCV: An Omnidirectional Synthetic Image Generator for Computer
Vision [5.2178708158547025]
本稿では,全方位画像のデータセットを意味情報と深度情報で生成するツールを提案する。
これらの画像は、Unreal Engine 4のリアルな仮想環境で取得された一連のキャプチャから合成される。
ツールには、非中央パノラマおよび非中央カタディオプトリシステムとして、フォトリアリスティックな非中央プロジェクションシステムが含まれています。
論文 参考訳(メタデータ) (2024-01-30T14:40:19Z) - PanoGRF: Generalizable Spherical Radiance Fields for Wide-baseline
Panoramas [54.4948540627471]
広帯域パノラマのための一般化可能な球面放射場パノGRFを提案する。
パノGRFは、視線画像に基づいて訓練された一般化可能な放射場とは異なり、パノラマからパースペクティブへの変換から情報損失を回避する。
複数のパノラマデータセットの結果は、パノGRFが最先端の一般化可能なビュー合成法よりも著しく優れていることを示している。
論文 参考訳(メタデータ) (2023-06-02T13:35:07Z) - PanoContext-Former: Panoramic Total Scene Understanding with a
Transformer [37.51637352106841]
パノラマ画像は、周囲の環境についてより深く理解し、より総合的な認識を可能にする。
本稿では,室内環境の総合的理解に先立って深度を用いた新しい手法を提案する。
さらに,写真リアリスティックパノラマ,高忠実度深度画像,正確にアノテートされた部屋レイアウト,配向オブジェクト境界ボックスや形状など,シーン理解のための実世界のデータセットを導入する。
論文 参考訳(メタデータ) (2023-05-21T16:20:57Z) - DeepPanoContext: Panoramic 3D Scene Understanding with Holistic Scene
Context Graph and Relation-based Optimization [66.25948693095604]
本研究では,パノラマ画像から各オブジェクトの3次元空間配置と形状,ポーズ,位置,意味的カテゴリを復元するパノラマ3次元シーン理解手法を提案する。
実験により, この手法は, パノラマシーン理解において, 幾何学的精度とオブジェクト配置の両方の観点から, 既存の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-08-24T13:55:29Z) - Moving in a 360 World: Synthesizing Panoramic Parallaxes from a Single
Panorama [13.60790015417166]
パララックス対応の新規パノラマビュー合成のための最初の手法であるOmniNeRF(OmniNeRF)を提案する。
仮想カメラの位置が異なる3次元世界と異なる2次元パノラマ座標の間を前後に投影することで、単一のRGB-Dパノラマを増大させることを提案する。
その結果、提案したOmniNeRFは、パララックス効果を示す新しいパノラマビューの説得力のあるレンダリングを実現する。
論文 参考訳(メタデータ) (2021-06-21T05:08:34Z) - Geometry-Guided Street-View Panorama Synthesis from Satellite Imagery [80.6282101835164]
オーバヘッド衛星画像から新しいストリートビューパノラマを合成するための新しいアプローチを提案する。
本手法は,googleの全方位ストリートビュー型パノラマを,衛星パッチの中央と同じ地理的位置から取得したかのように生成する。
論文 参考訳(メタデータ) (2021-03-02T10:27:05Z) - Lighthouse: Predicting Lighting Volumes for Spatially-Coherent
Illumination [84.00096195633793]
入力狭帯域ステレオ画像ペアからシーン内の任意の3次元位置における入射照度を推定する深層学習ソリューションを提案する。
本モデルでは,入力ステレオペア近傍の視野ビューと,各シーン内の球状パノラマのみを監督する。
提案手法は,高精細な仮想物体を実画像に挿入して照らし出すのに十分な空間変化の連続した照明を予測できることを実証する。
論文 参考訳(メタデータ) (2020-03-18T17:46:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。