論文の概要: DIGITOUR: Automatic Digital Tours for Real-Estate Properties
- arxiv url: http://arxiv.org/abs/2301.06680v1
- Date: Tue, 17 Jan 2023 03:43:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 14:55:14.486742
- Title: DIGITOUR: Automatic Digital Tours for Real-Estate Properties
- Title(参考訳): DIGITOUR:不動産不動産の自動デジタルツアー
- Authors: Prateek Chhikara, Harshul Kuhar, Anil Goyal, Chirag Sharma
- Abstract要約: 本稿では,3次元仮想ツアーの自動生成のためのエンドツーエンドパイプラインを提案する。
そこで本稿では,異なる場所に紙タグを配置する必要のある,新しいHSVベースのカラー化手法を提案する。
本研究では,Housing.comデータベースから収集した実世界の等方形画像データセット上で,提案したパイプラインの有効性を示す。
- 参考スコア(独自算出の注目度): 0.4588028371034407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A virtual or digital tour is a form of virtual reality technology which
allows a user to experience a specific location remotely. Currently, these
virtual tours are created by following a 2-step strategy. First, a photographer
clicks a 360 degree equirectangular image; then, a team of annotators manually
links these images for the "walkthrough" user experience. The major challenge
in the mass adoption of virtual tours is the time and cost involved in manual
annotation/linking of images. Therefore, this paper presents an end-to-end
pipeline to automate the generation of 3D virtual tours using equirectangular
images for real-estate properties. We propose a novel HSV-based coloring scheme
for paper tags that need to be placed at different locations before clicking
the equirectangular images using 360 degree cameras. These tags have two
characteristics: i) they are numbered to help the photographer for placement of
tags in sequence and; ii) bi-colored, which allows better learning of tag
detection (using YOLOv5 architecture) in an image and digit recognition (using
custom MobileNet architecture) tasks. Finally, we link/connect all the
equirectangular images based on detected tags. We show the efficiency of the
proposed pipeline on a real-world equirectangular image dataset collected from
the Housing.com database.
- Abstract(参考訳): 仮想またはデジタルツアーは、ユーザーが特定の場所をリモートで体験できる仮想現実技術の一種である。
現在、これらの仮想ツアーは2段階の戦略に従って作成されている。
まず、写真家が360度の正方形画像をクリックすると、アノテータのチームが手動でこれらの画像を“ウォークスルー”ユーザ体験にリンクする。
仮想ツアーの大量導入における大きな課題は、画像の手動アノテーション/リンクにかかわる時間とコストである。
そこで本稿では,等角形状画像を用いた3次元仮想ツアーの自動生成のためのエンドツーエンドパイプラインを提案する。
360度カメラで等方形画像をクリックする前に、異なる場所に配置する必要がある紙タグに対する新しいHSVベースの色付け手法を提案する。
これらのタグには2つの特徴があります
一 撮影者がタグを順次配置するのを手伝うために番号が付けられていること。
二 画像におけるタグ検出(yolov5アーキテクチャを使用)及び(独自のmobilenetアーキテクチャを使用した)デジット認識のよりよい学習を可能にするバイカラー。
最後に、検出されたタグに基づいて、すべての等角像をリンク/接続する。
housing.comデータベースから収集した実世界等角画像データセット上で,提案パイプラインの有効性を示す。
関連論文リスト
- OmniSCV: An Omnidirectional Synthetic Image Generator for Computer
Vision [5.2178708158547025]
本稿では,全方位画像のデータセットを意味情報と深度情報で生成するツールを提案する。
これらの画像は、Unreal Engine 4のリアルな仮想環境で取得された一連のキャプチャから合成される。
ツールには、非中央パノラマおよび非中央カタディオプトリシステムとして、フォトリアリスティックな非中央プロジェクションシステムが含まれています。
論文 参考訳(メタデータ) (2024-01-30T14:40:19Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - GPAvatar: Generalizable and Precise Head Avatar from Image(s) [71.555405205039]
GPAvatarは、1つの前方パスで1つまたは複数の画像から3Dヘッドアバターを再構築するフレームワークである。
提案手法は,忠実なアイデンティティ再構築,正確な表現制御,多視点一貫性を実現する。
論文 参考訳(メタデータ) (2024-01-18T18:56:34Z) - Towards Generalizable Multi-Camera 3D Object Detection via Perspective
Debiasing [28.874014617259935]
マルチカメラ3Dオブジェクト検出(MC3D-Det)は,鳥眼ビュー(BEV)の出現によって注目されている。
本研究では,3次元検出と2次元カメラ平面との整合性を両立させ,一貫した高精度な検出を実現する手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T15:31:28Z) - The Change You Want to See (Now in 3D) [65.61789642291636]
本稿の目的は、同じ3Dシーンの2つの「野生」画像の間で何が変わったかを検出することである。
我々は,全合成データに基づいて学習し,クラスに依存しない変化検出モデルに貢献する。
我々は,人間に注釈を付けた実世界のイメージペアによる評価データセットを新たにリリースした。
論文 参考訳(メタデータ) (2023-08-21T01:59:45Z) - SUPS: A Simulated Underground Parking Scenario Dataset for Autonomous
Driving [41.221988979184665]
SUPSは地下自動駐車のシミュレーションデータセットである。
複数のセンサーと連続したイメージに合わせた複数のセマンティックラベルを備えた複数のタスクをサポートする。
また、我々のデータセット上で、最先端のSLAMアルゴリズムと知覚モデルを評価する。
論文 参考訳(メタデータ) (2023-02-25T02:59:12Z) - Image-to-Lidar Self-Supervised Distillation for Autonomous Driving Data [80.14669385741202]
本稿では,自律運転データに適した3次元知覚モデルのための自己教師付き事前学習手法を提案する。
我々は、自動走行装置における同期・校正画像とLidarセンサーの可用性を活用している。
私たちのメソッドは、ポイントクラウドや画像アノテーションを一切必要としません。
論文 参考訳(メタデータ) (2022-03-30T12:40:30Z) - Recognizing Scenes from Novel Viewpoints [99.90914180489456]
人間は、少数の2Dビューから3Dのシーンを知覚することができる。AIエージェントは、少数の画像しか持たない任意の視点からシーンを認識することで、シーンとそのオブジェクトと効率的に対話することができる。
本稿では,新しいシーンのいくつかのRGB画像を入力として取り込んで,そのシーンを意味カテゴリーに分類することで,新たな視点から認識するモデルを提案する。
論文 参考訳(メタデータ) (2021-12-02T18:59:40Z) - Learning 3D Semantic Segmentation with only 2D Image Supervision [18.785840615548473]
多視点融合を用いた2次元意味画像分割から派生した擬似ラベルから3次元モデルを訓練する。
提案するネットワークアーキテクチャである2D3DNetは,5大陸20都市で撮影されたライダーと画像を備えた新しい都市データセットの実験において,ベースラインよりもはるかに優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2021-10-21T17:56:28Z) - Geometry-Guided Street-View Panorama Synthesis from Satellite Imagery [80.6282101835164]
オーバヘッド衛星画像から新しいストリートビューパノラマを合成するための新しいアプローチを提案する。
本手法は,googleの全方位ストリートビュー型パノラマを,衛星パッチの中央と同じ地理的位置から取得したかのように生成する。
論文 参考訳(メタデータ) (2021-03-02T10:27:05Z) - Cityscapes 3D: Dataset and Benchmark for 9 DoF Vehicle Detection [7.531596091318718]
我々はCityscapes 3Dを提案し、Cityscapesのオリジナルのデータセットを拡張し、あらゆる種類の車両に対して3Dバウンディングボックスアノテーションを提供する。
既存のデータセットとは対照的に、3DアノテーションはステレオRGB画像のみを使用してラベル付けされ、9自由度をすべてキャプチャしました。
さらに、我々はCityscapesベンチマークスイートを、新しいアノテーションに基づく3D車両検出と、この研究で提示されたメトリクスで補完する。
論文 参考訳(メタデータ) (2020-06-14T10:56:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。