論文の概要: VALUE: Large Scale Voting-based Automatic Labelling for Urban
Environments
- arxiv url: http://arxiv.org/abs/2006.03492v1
- Date: Fri, 5 Jun 2020 14:47:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-11-25 03:44:12.343005
- Title: VALUE: Large Scale Voting-based Automatic Labelling for Urban
Environments
- Title(参考訳): 価値:大規模投票に基づく都市環境の自動ラベリング
- Authors: Giacomo Dabisias, Emanuele Ruffaldi, Hugo Grimmett, Peter Ondruska
- Abstract要約: 本稿では,大規模都市環境における静的3次元物体の自動位置決めのための簡易かつロバストな手法を提案する。
ノイズが多いが精度の高い2次元画像データをマージする可能性を利用して、回収した3次元情報の堅牢性と精度の両面において、優れた性能を実現する。
- 参考スコア(独自算出の注目度): 5.218882272051637
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a simple and robust method for the automatic localisation
of static 3D objects in large-scale urban environments. By exploiting the
potential to merge a large volume of noisy but accurately localised 2D image
data, we achieve superior performance in terms of both robustness and accuracy
of the recovered 3D information. The method is based on a simple distributed
voting schema which can be fully distributed and parallelised to scale to
large-scale scenarios. To evaluate the method we collected city-scale data sets
from New York City and San Francisco consisting of almost 400k images spanning
the area of 40 km$^2$ and used it to accurately recover the 3D positions of
traffic lights. We demonstrate a robust performance and also show that the
solution improves in quality over time as the amount of data increases.
- Abstract(参考訳): 本稿では,大規模都市環境における静的3次元物体の自動位置決め手法を提案する。
ノイズが多いが精度の高い2次元画像データをマージする可能性を利用して、回収した3次元情報の堅牢性と精度の両面で優れた性能を実現する。
この方法は,大規模シナリオにスケールするために,完全に分散して並列化可能な,シンプルな分散投票スキーマに基づいている。
この方法を評価するために、ニューヨーク市とサンフランシスコから40 km$^2$の面積にまたがる約400kの画像を収集し、交通信号の3d位置を正確に復元するために使用した。
我々は,ロバストな性能を示すとともに,データ量の増加に伴ってソリューションの品質が向上することを示す。
関連論文リスト
- Empowering Large Language Models with 3D Situation Awareness [84.12071023036636]
3Dと2Dの主な違いは、3Dシーンにおける自我中心のオブザーバーの状況が変化し、異なる記述をもたらすことである。
本研究では,データ収集時の走査軌道を利用して状況認識データセットを自動的に生成する手法を提案する。
本研究では,観測者の視点の位置と方向を明示的に予測する状況接地モジュールを導入し,LLMが3次元シーンで状況記述をグラウンド化できるようにする。
論文 参考訳(メタデータ) (2025-03-29T09:34:16Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - 3D Gaussian Splatting aided Localization for Large and Complex Indoor-Environments [3.255320158480672]
本稿では,画像の追加により,確立された視覚的位置決め手法の精度と信頼性を大幅に向上する手法を提案する。
ランダムにサンプリングされたポーズで3DGSからレンダリングされた画像で参照データをリッチにすることで、幾何学に基づく視覚的ローカライゼーションとScene Coordinate Regression法の両方の性能が大幅に向上することを示した。
論文 参考訳(メタデータ) (2025-02-19T15:12:43Z) - CityLoc: 6DoF Pose Distributional Localization for Text Descriptions in Large-Scale Scenes with Gaussian Representation [99.23408146027462]
本稿では,テキスト記述に基づくカメラポーズの分布生成手法を提案する。
提案手法では,ノイズの多い6DoFカメラを高精細化するために拡散型アーキテクチャを用いる。
5つの大規模データセットの標準分布推定法と比較し,本手法の優位性を検証した。
論文 参考訳(メタデータ) (2025-01-15T17:59:32Z) - AdaOcc: Adaptive-Resolution Occupancy Prediction [20.0994984349065]
AdaOccは適応分解能でマルチモーダルな予測手法である。
提案手法は,オブジェクト中心の3次元再構成と全体的占有予測を一つのフレームワークに統合する。
近距離シナリオでは、以前のベースラインを13%以上、ハウスドルフ距離を40%以上上回る。
論文 参考訳(メタデータ) (2024-08-24T03:46:25Z) - Visual Localization in 3D Maps: Comparing Point Cloud, Mesh, and NeRF Representations [8.522160106746478]
様々な3次元地図表現にまたがる単一カメラ画像のローカライズが可能なグローバルな視覚的ローカライゼーションシステムを提案する。
本システムは,シーンの新たなビューを合成し,RGBと深度画像のペアを作成することでデータベースを生成する。
NeRF合成画像は、クエリ画像を平均72%の成功率でローカライズし、優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-21T19:37:17Z) - Empowering Urban Traffic Management: Elevated 3D LiDAR for Data Collection and Advanced Object Detection Analysis [4.831084635928491]
本稿では,高機能LiDARセンサのパワーを利用して,交通シナリオにおける3次元物体の検出と解析を変換する新しいフレームワークを提案する。
実世界のトラフィックデータセットの取得に制限があるため、シミュレータを用いて特定のシナリオに対して3Dポイントクラウドを生成する。
論文 参考訳(メタデータ) (2024-05-21T21:12:09Z) - CityGaussian: Real-time High-quality Large-Scale Scene Rendering with Gaussians [64.6687065215713]
CityGaussianは、大規模な3DGSのトレーニングとレンダリングを効率化するために、新しい分別/分別トレーニングアプローチとLevel-of-Detail(LoD)戦略を採用している。
我々のアプローチは最先端のレンダリング品質を実現し、大規模なシーンを全く異なるスケールで一貫したリアルタイムレンダリングを可能にする。
論文 参考訳(メタデータ) (2024-04-01T14:24:40Z) - AVS-Net: Point Sampling with Adaptive Voxel Size for 3D Scene Understanding [16.03214439663472]
本稿では,精度と効率性を両立する高度サンプリング器を提案する。
本稿では,Voxel Adaptation Module(Voxel Adaptation Module,Voxel Adaptation Module,Voxel Adaptation Module,Voxel Adaptation Module,Voxel Adaptation Module,Voxel Adaptation Module)を提案する。
既存の最先端手法と比較して,本手法は屋外および屋内の大規模データセットの精度を向上する。
論文 参考訳(メタデータ) (2024-02-27T14:05:05Z) - Volumetric Semantically Consistent 3D Panoptic Mapping [77.13446499924977]
非構造環境における自律エージェントに適したセマンティック3Dマップを生成することを目的としたオンライン2次元から3次元のセマンティック・インスタンスマッピングアルゴリズムを提案する。
マッピング中にセマンティック予測の信頼性を統合し、セマンティックおよびインスタンス一貫性のある3D領域を生成する新しい方法を導入する。
提案手法は,パブリックな大規模データセット上での最先端の精度を実現し,多くの広く使用されているメトリクスを改善した。
論文 参考訳(メタデータ) (2023-09-26T08:03:10Z) - High Quality Large-Scale 3-D Urban Mapping with Multi-Master TomoSAR [18.7734351067417]
本研究は,超小型スタックで動作する新しいSARトモグラフィ処理フレームワークを提案する。
相対的な高さの精度は2メートル以内であり、TandEM-Xの生のDEMより優れている。
論文 参考訳(メタデータ) (2023-05-08T08:29:21Z) - SketchSampler: Sketch-based 3D Reconstruction via View-dependent Depth
Sampling [75.957103837167]
1枚のスケッチ画像に基づいて3次元形状を再構成することは、スパースで不規則なスケッチと正規の高密度な3次元形状との間に大きな領域ギャップがあるため困難である。
既存の作品では、3D座標を直接予測するためにスケッチから抽出されたグローバルな特徴を活用しようとするが、通常は入力スケッチに忠実でない細部を失う。
論文 参考訳(メタデータ) (2022-08-14T16:37:51Z) - Vision-based Large-scale 3D Semantic Mapping for Autonomous Driving
Applications [53.553924052102126]
ステレオカメラシステムのみに基づく3次元セマンティックマッピングのための完全なパイプラインを提案する。
パイプラインは、直接視覚的オドメトリーのフロントエンドと、グローバルな時間統合のためのバックエンドで構成されている。
本稿では,3次元点ラベルの品質と一貫性を向上する,単純だが効果的な投票方式を提案する。
論文 参考訳(メタデータ) (2022-03-02T13:18:38Z) - Towards 3D Scene Reconstruction from Locally Scale-Aligned Monocular
Video Depth [90.33296913575818]
映像深度推定や映像からの3次元シーン再構成のようなビデオベースのシナリオでは、フレームごとの予測における未知のスケールとシフトが深度の不整合を引き起こす可能性がある。
局所重み付き線形回帰法を提案する。
提案手法は,複数のゼロショットベンチマークにおいて,既存の最先端手法の性能を50%向上させることができる。
論文 参考訳(メタデータ) (2022-02-03T08:52:54Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。