論文の概要: INDOOR-LiDAR: Bridging Simulation and Reality for Robot-Centric 360 degree Indoor LiDAR Perception -- A Robot-Centric Hybrid Dataset
- arxiv url: http://arxiv.org/abs/2512.12377v1
- Date: Sat, 13 Dec 2025 16:08:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.329947
- Title: INDOOR-LiDAR: Bridging Simulation and Reality for Robot-Centric 360 degree Indoor LiDAR Perception -- A Robot-Centric Hybrid Dataset
- Title(参考訳): INDOOR-LiDAR: ロボット中心の360度屋内LiDAR知覚のためのブリッジングシミュレーションと現実性 - ロボット中心のハイブリッドデータセット-
- Authors: Haichuan Li, Changda Tian, Panos Trahanias, Tomi Westerlund,
- Abstract要約: INDOOR-LIDARは、屋内3次元LiDAR点雲の総合的なハイブリッドデータセットである。
シミュレーションされた環境と、自律的な地上ロボットを使って取得した現実世界のスキャンを統合する。
3Dオブジェクト検出、鳥眼視(BEV)知覚、SLAM、セマンティックシーン理解、シミュレートされた屋内ドメインと実際の屋内ドメイン間のドメイン適応など、幅広いアプリケーションをサポートする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present INDOOR-LIDAR, a comprehensive hybrid dataset of indoor 3D LiDAR point clouds designed to advance research in robot perception. Existing indoor LiDAR datasets often suffer from limited scale, inconsistent annotation formats, and human-induced variability during data collection. INDOOR-LIDAR addresses these limitations by integrating simulated environments with real-world scans acquired using autonomous ground robots, providing consistent coverage and realistic sensor behavior under controlled variations. Each sample consists of dense point cloud data enriched with intensity measurements and KITTI-style annotations. The annotation schema encompasses common indoor object categories within various scenes. The simulated subset enables flexible configuration of layouts, point densities, and occlusions, while the real-world subset captures authentic sensor noise, clutter, and domain-specific artifacts characteristic of real indoor settings. INDOOR-LIDAR supports a wide range of applications including 3D object detection, bird's-eye-view (BEV) perception, SLAM, semantic scene understanding, and domain adaptation between simulated and real indoor domains. By bridging the gap between synthetic and real-world data, INDOOR-LIDAR establishes a scalable, realistic, and reproducible benchmark for advancing robotic perception in complex indoor environments.
- Abstract(参考訳): InDOOR-LIDARは,ロボット知覚の研究を促進するために設計された屋内3次元LiDAR点雲の包括的ハイブリッドデータセットである。
既存の屋内LiDARデータセットは、限られたスケール、一貫性のないアノテーションフォーマット、データ収集時の人間による変動に悩まされることが多い。
INDOOR-LIDARは、これらの制限に対処するために、シミュレーションされた環境と、自律的な地上ロボットを用いて取得した現実世界のスキャンを統合する。
それぞれのサンプルは、強度測定とKITTIスタイルのアノテーションで濃縮された濃厚な点雲データで構成されている。
アノテーションスキーマは、様々な場面で一般的な屋内オブジェクトカテゴリを含む。
シミュレーションされたサブセットは、レイアウト、ポイント密度、オクルージョンの柔軟な構成を可能にし、リアルワールドサブセットは、実際の屋内設定に特徴的な本物のセンサーノイズ、クラッタ、ドメイン固有のアーティファクトをキャプチャする。
INDOOR-LIDARは3Dオブジェクト検出、鳥の目視(BEV)知覚、SLAM、セマンティックシーン理解、シミュレーションされた屋内ドメインと実際の屋内ドメイン間のドメイン適応など、幅広いアプリケーションをサポートしている。
合成データと実世界のデータのギャップを埋めることで、INDOOR-LIDARは、複雑な屋内環境でロボットの知覚を前進させるためのスケーラブルで現実的で再現可能なベンチマークを確立する。
関連論文リスト
- Range-Edit: Semantic Mask Guided Outdoor LiDAR Scene Editing [8.309247096255529]
自律運転とナビゲーションシステムのトレーニングには、大規模で多様なポイントクラウドデータセットが必要である。
現在の方法は、手作りの3D仮想環境内のポイントクラウドデータをシミュレーションすることに依存している。
本研究では,現実世界のLiDARスキャンを編集することで議論される問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-11-21T14:16:27Z) - High-Fidelity Digital Twins for Bridging the Sim2Real Gap in LiDAR-Based ITS Perception [3.1508266388327324]
本稿では,実世界の背景形状,レーンレベルの道路トポロジ,センサ固有の仕様と配置を組み込んだ高忠実なディジタルツイン(HiFi DT)フレームワークを提案する。
実験の結果、DT訓練モデルでは、実際のデータでトレーニングされた同等のモデルを4.8%上回る結果が得られた。
論文 参考訳(メタデータ) (2025-09-03T00:12:58Z) - Investigating Domain Gaps for Indoor 3D Object Detection [60.55242233729081]
本研究では,屋内3次元物体検出器を1つのデータセットから別のデータセットに適応させる作業について考察する。
本稿では, ScanNet, SUN RGB-D, 3D Frontのデータセットと, 新たに提案した大規模データセット ProcTHOR-OD と ProcFront を用いたベンチマークを提案する。
本研究は,3次元物体検出器におけるドメインギャップの違いが,合成から現実への適応,点雲品質適応,レイアウト適応,インスタンス特徴適応など,さまざまな適応シナリオについて実験を行った。
論文 参考訳(メタデータ) (2025-08-24T16:34:19Z) - Synth It Like KITTI: Synthetic Data Generation for Object Detection in Driving Scenarios [3.30184292168618]
本稿では,LiDAR点雲上での3次元物体検出のためのCARLAシミュレータに基づくデータセット生成パイプラインを提案する。
我々は、合成データに基づいてオブジェクト検出器を訓練し、KITTIデータセットに強力な一般化能力を示すことができる。
論文 参考訳(メタデータ) (2025-02-20T22:27:42Z) - Syn-to-Real Unsupervised Domain Adaptation for Indoor 3D Object Detection [50.448520056844885]
室内3次元物体検出における非教師なし領域適応のための新しいフレームワークを提案する。
合成データセット3D-FRONTから実世界のデータセットScanNetV2とSUN RGB-Dへの適応結果は、ソースオンリーベースラインよりも9.7%、9.1%のmAP25が顕著に改善されていることを示している。
論文 参考訳(メタデータ) (2024-06-17T08:18:41Z) - Mixed Diffusion for 3D Indoor Scene Synthesis [55.94569112629208]
提案するMiDiffusionは,可塑性3次元屋内シーンを合成するための混合離散連続拡散モデルである。
床条件の3次元シーン合成において,最先端の自己回帰モデルおよび拡散モデルより優れることを示す。
論文 参考訳(メタデータ) (2024-05-31T17:54:52Z) - VBR: A Vision Benchmark in Rome [1.71787484850503]
本稿では,RGBデータ,3次元点雲,IMU,GPSデータを含む,ローマで収集された視覚・知覚研究データセットについて述べる。
我々は、自律ロボット工学とコンピュータビジョンの研究を進めるために、視覚計測とSLAMをターゲットにした新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2024-04-17T12:34:49Z) - LiveHPS: LiDAR-based Scene-level Human Pose and Shape Estimation in Free
Environment [59.320414108383055]
シーンレベルの人間のポーズと形状推定のための単一LiDARに基づく新しいアプローチであるLiveHPSを提案する。
多様な人間のポーズを伴う様々なシナリオで収集される巨大な人間の動きデータセットFreeMotionを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:08:44Z) - ePointDA: An End-to-End Simulation-to-Real Domain Adaptation Framework
for LiDAR Point Cloud Segmentation [111.56730703473411]
LiDARデータ上でディープニューラルネットワーク(DNN)をトレーニングするには、大規模なポイントワイドアノテーションが必要である。
シミュレーション・トゥ・リアル・ドメイン適応(SRDA)は、DNNを無制限の合成データと自動生成されたラベルで訓練する。
ePointDAは、自己教師付きドロップアウトノイズレンダリング、統計不変および空間適応型特徴アライメント、転送可能なセグメンテーション学習の3つのモジュールで構成されている。
論文 参考訳(メタデータ) (2020-09-07T23:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。