論文の概要: Point Cloud Recombination: Systematic Real Data Augmentation Using Robotic Targets for LiDAR Perception Validation
- arxiv url: http://arxiv.org/abs/2505.02476v1
- Date: Mon, 05 May 2025 09:00:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.615023
- Title: Point Cloud Recombination: Systematic Real Data Augmentation Using Robotic Targets for LiDAR Perception Validation
- Title(参考訳): ポイントクラウド再結合:LiDAR知覚検証のためのロボットターゲットを用いたシステム的実データ拡張
- Authors: Hubert Padusinski, Christian Steinhauser, Christian Scherl, Julian Gaal, Jacob Langner,
- Abstract要約: 仮想シミュレーションでは、制御された条件下で任意のシーンを生成することができるが、物理的なセンサー特性は欠如している。
実世界のデータは真のセンサーリアリズムを提供するが、影響要因の制御は少ない。
既存のアプローチでは、シーン間でオブジェクトを転送することで、現実のポイントクラウドデータの増大によってこの問題に対処している。
制御された実験室で測定された物理的対象物から取得した点雲を統合することにより,捕獲された点雲シーンを体系的に増強する点雲再結合を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The validation of LiDAR-based perception of intelligent mobile systems operating in open-world applications remains a challenge due to the variability of real environmental conditions. Virtual simulations allow the generation of arbitrary scenes under controlled conditions but lack physical sensor characteristics, such as intensity responses or material-dependent effects. In contrast, real-world data offers true sensor realism but provides less control over influencing factors, hindering sufficient validation. Existing approaches address this problem with augmentation of real-world point cloud data by transferring objects between scenes. However, these methods do not consider validation and remain limited in controllability because they rely on empirical data. We solve these limitations by proposing Point Cloud Recombination, which systematically augments captured point cloud scenes by integrating point clouds acquired from physical target objects measured in controlled laboratory environments. Thus enabling the creation of vast amounts and varieties of repeatable, physically accurate test scenes with respect to phenomena-aware occlusions with registered 3D meshes. Using the Ouster OS1-128 Rev7 sensor, we demonstrate the augmentation of real-world urban and rural scenes with humanoid targets featuring varied clothing and poses, for repeatable positioning. We show that the recombined scenes closely match real sensor outputs, enabling targeted testing, scalable failure analysis, and improved system safety. By providing controlled yet sensor-realistic data, our method enables trustworthy conclusions about the limitations of specific sensors in compound with their algorithms, e.g., object detection.
- Abstract(参考訳): オープンワールドアプリケーションで動作するインテリジェントなモバイルシステムに対するLiDARに基づく認識の検証は、実際の環境条件の変動のため、依然として課題である。
仮想シミュレーションでは、制御された条件下で任意のシーンを生成することができるが、強度応答や物質依存効果のような物理的なセンサー特性が欠如している。
対照的に、現実世界のデータは真のセンサーリアリズムを提供するが、影響要因の制御を少なくし、十分な検証を妨げている。
既存のアプローチでは、シーン間でオブジェクトを転送することで、現実のポイントクラウドデータの増大によってこの問題に対処している。
しかし、これらの手法は検証を考慮せず、経験的データに依存しているため、制御性に制限がある。
我々は、制御された実験室環境で測定された物理的対象物から取得した点雲を統合することにより、捕獲された点雲シーンを体系的に増強する点雲再結合を提案することにより、これらの制限を解決する。
これにより、登録された3Dメッシュによる現象を意識したオクルージョンに対して、膨大な量の繰り返し、物理的に正確なテストシーンを作成できる。
Ouster OS1-128 Rev7センサーを用いて、さまざまな衣服やポーズを特徴とするヒューマノイドをターゲットとした現実世界の都市と農村のシーンの強化を再現可能な位置決めのために実証した。
再結合されたシーンは実際のセンサ出力と密に一致し、ターゲットテスト、スケーラブルな障害解析、システム安全性の向上を実現している。
本手法は, 制御されたセンサリアルなデータを提供することにより, 物体検出などのアルゴリズムを用いて, 特定のセンサの限界について, 信頼性の高い結論を導出する。
関連論文リスト
- JiSAM: Alleviate Labeling Burden and Corner Case Problems in Autonomous Driving via Minimal Real-World Data [49.2298619289506]
本稿では,ジッタリング強化,ドメイン認識バックボーン,メモリに基づくセクタライズAlignMentのためのJiSAMというプラグイン・アンド・プレイ手法を提案する。
有名なADデータセットであるNuScenesで実施された広範な実験において、SOTA 3Dオブジェクト検出器を用いて、JiSAMはシミュレーションデータと2.5%の実データにラベルを付けるだけで、実データで訓練されたモデルに匹敵する性能が得られることを示した。
論文 参考訳(メタデータ) (2025-03-11T13:35:39Z) - A New Adversarial Perspective for LiDAR-based 3D Object Detection [15.429996348453967]
我々は,LiDARでスキャンした2つのランダム物体(水霧と煙)の点雲からなる実世界のデータセット(ROLiD)を紹介する。
そこで我々は,PCS-GAN と命名された動き・内容分解生成対向ネットワークを用いた点雲列生成手法を提案する。
実験により, ランダム物体に基づく対向的摂動が車両検出を効果的に欺き, 3次元物体検出モデルの認識率を低下させることを示した。
論文 参考訳(メタデータ) (2024-12-17T15:36:55Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - SimMining-3D: Altitude-Aware 3D Object Detection in Complex Mining
Environments: A Novel Dataset and ROS-Based Automatic Annotation Pipeline [0.9790236766474201]
鉱業環境における3次元物体検出に特化して設計された合成データセットSimMining 3Dを提案する。
このデータセットは、鉱山のベンチ内のさまざまな高さに位置する物体やセンサーを捉え、正確な採掘シナリオを正確に反映している。
本研究では,センサ対オブジェクトの高さ変化と点雲密度を考慮した評価指標を提案し,正確なモデル評価を可能にする。
論文 参考訳(メタデータ) (2023-12-11T04:33:45Z) - Virtual Reality via Object Poses and Active Learning: Realizing
Telepresence Robots with Aerial Manipulation Capabilities [39.29763956979895]
本稿では,動的・非構造環境下での空中操作を進展させる新しいテレプレゼンスシステムを提案する。
提案システムは触覚デバイスだけでなく、ロボットのワークスペースのリアルタイム3Dディスプレイを提供する仮想現実(VR)インターフェースも備えている。
DLRケーブル・サスペンド・エアリアルマニピュレータ(SAM)によるピック・アンド・プレイス、フォース・アプリケーション、ペグ・イン・ホールの70以上の堅牢な実行を示す。
論文 参考訳(メタデータ) (2022-10-18T08:42:30Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - On the Role of Sensor Fusion for Object Detection in Future Vehicular
Networks [25.838878314196375]
異なるセンサの組み合わせが車両の移動・運転環境の検出にどのように影響するかを評価します。
最終的な目標は、チャネルに分散するデータの量を最小限に抑える最適な設定を特定することです。
論文 参考訳(メタデータ) (2021-04-23T18:58:37Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。