論文の概要: Collision Avoidance Metric for 3D Camera Evaluation
- arxiv url: http://arxiv.org/abs/2405.09755v2
- Date: Mon, 8 Jul 2024 19:15:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 23:21:23.706877
- Title: Collision Avoidance Metric for 3D Camera Evaluation
- Title(参考訳): 3次元カメラ評価のための衝突回避基準
- Authors: Vage Taamazyan, Alberto Dall'olio, Agastya Kalra,
- Abstract要約: 3Dカメラは、ロボティクスや自動運転の応用のための重要な情報源として登場した。
現在の標準的なカメラ評価メトリクスは、特定のアプリケーションコンテキストを考慮していないことが多い。
本研究では,衝突回避の重要な課題に対する3次元カメラの適合性を評価するために,ポイントクラウド評価のための新しい指標を提案する。
- 参考スコア(独自算出の注目度): 1.6112718683989882
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: 3D cameras have emerged as a critical source of information for applications in robotics and autonomous driving. These cameras provide robots with the ability to capture and utilize point clouds, enabling them to navigate their surroundings and avoid collisions with other objects. However, current standard camera evaluation metrics often fail to consider the specific application context. These metrics typically focus on measures like Chamfer distance (CD) or Earth Mover's Distance (EMD), which may not directly translate to performance in real-world scenarios. To address this limitation, we propose a novel metric for point cloud evaluation, specifically designed to assess the suitability of 3D cameras for the critical task of collision avoidance. This metric incorporates application-specific considerations and provides a more accurate measure of a camera's effectiveness in ensuring safe robot navigation. The source code is available at https://github.com/intrinsic-ai/collision-avoidance-metric.
- Abstract(参考訳): 3Dカメラは、ロボティクスや自動運転の応用のための重要な情報源として登場した。
これらのカメラによって、ロボットは点雲を捉えて利用し、周囲をナビゲートし、他の物体との衝突を避けることができる。
しかしながら、現在の標準的なカメラ評価メトリクスは、特定のアプリケーションコンテキストを考慮していないことが多い。
これらの指標は一般的に、実際のシナリオでは直接的にパフォーマンスに変換されない、チャンファー距離 (CD) やアース・マーバー距離 (EMD) のような尺度に焦点を当てている。
この限界に対処するため, 衝突回避の重要な課題に対する3Dカメラの適合性を評価するために, ポイントクラウド評価のための新しい指標を提案する。
このメトリクスは、アプリケーション固有の考察を取り入れ、安全なロボットナビゲーションを保証するためのカメラの有効性をより正確に測定する。
ソースコードはhttps://github.com/inrinsic-ai/collision-avoidance-metricで公開されている。
関連論文リスト
- Ego-Motion Aware Target Prediction Module for Robust Multi-Object Tracking [2.7898966850590625]
我々は、Ego-motion Aware Target Prediction (EMAP)と呼ばれる新しいKFベースの予測モジュールを導入する。
提案手法は、カルマンフィルタを再構成することにより、物体軌道からのカメラ回転速度と翻訳速度の影響を分離する。
EMAPはOC-SORTとDeep OC-SORTのIDSWをそれぞれ73%と21%減少させる。
論文 参考訳(メタデータ) (2024-04-03T23:24:25Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - Virtually increasing the measurement frequency of LIDAR sensor utilizing
a single RGB camera [1.3706331473063877]
本研究は、モノカメラを用いてLIDARのフレームレートを実質的に向上させることを示唆している。
実測値と精度および類似性の観点から,大規模な公開データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-10T11:43:35Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - Monocular 3D Object Detection: An Extrinsic Parameter Free Approach [29.723079686571825]
本稿では、外乱のない検出器を定式化するために、カメラのポーズをキャプチャする新しい方法を提案する。
コンバータは、潜伏空間における摂動特性を補正するように設計されている。
実験により,本手法が他の最先端技術と比較して最高の性能を発揮することが示された。
論文 参考訳(メタデータ) (2021-06-30T03:35:51Z) - Single View Physical Distance Estimation using Human Pose [18.9877515094788]
本稿では,1枚のRGB画像やビデオからカメラ内在物,地上面,人物間の物理的距離を同時に推定する完全自動システムを提案する。
提案手法により、既存のカメラシステムは、専用のキャリブレーションプロセスやレンジセンサーを必要とせず、物理的距離を測定することができる。
その結果,ポーズに基づく自動校正と距離推定の問題に対して,MEVADAが世界初となる評価ベンチマークとなった。
論文 参考訳(メタデータ) (2021-06-18T19:50:40Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。