論文の概要: On the Role of Sensor Fusion for Object Detection in Future Vehicular
Networks
- arxiv url: http://arxiv.org/abs/2104.11785v1
- Date: Fri, 23 Apr 2021 18:58:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:26:10.355495
- Title: On the Role of Sensor Fusion for Object Detection in Future Vehicular
Networks
- Title(参考訳): 将来の車両ネットワークにおける物体検出におけるセンサフュージョンの役割
- Authors: Valentina Rossi, Paolo Testolina, Marco Giordani, Michele Zorzi
- Abstract要約: 異なるセンサの組み合わせが車両の移動・運転環境の検出にどのように影響するかを評価します。
最終的な目標は、チャネルに分散するデータの量を最小限に抑える最適な設定を特定することです。
- 参考スコア(独自算出の注目度): 25.838878314196375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fully autonomous driving systems require fast detection and recognition of
sensitive objects in the environment. In this context, intelligent vehicles
should share their sensor data with computing platforms and/or other vehicles,
to detect objects beyond their own sensors' fields of view. However, the
resulting huge volumes of data to be exchanged can be challenging to handle for
standard communication technologies. In this paper, we evaluate how using a
combination of different sensors affects the detection of the environment in
which the vehicles move and operate. The final objective is to identify the
optimal setup that would minimize the amount of data to be distributed over the
channel, with negligible degradation in terms of object detection accuracy. To
this aim, we extend an already available object detection algorithm so that it
can consider, as an input, camera images, LiDAR point clouds, or a combination
of the two, and compare the accuracy performance of the different approaches
using two realistic datasets. Our results show that, although sensor fusion
always achieves more accurate detections, LiDAR only inputs can obtain similar
results for large objects while mitigating the burden on the channel.
- Abstract(参考訳): 完全自律運転システムでは、環境に敏感な物体を素早く検出し認識する必要がある。
この文脈では、インテリジェントな車両はセンサーデータをコンピューティングプラットフォームや他の車両と共有し、センサーの視野を超えた物体を検出する必要がある。
しかし、交換すべき膨大なデータ量は、標準的な通信技術では処理が困難である。
本稿では,異なるセンサの組み合わせが,車両の走行・走行環境の検出にどのように影響するかを評価する。
最終的な目的は、オブジェクト検出精度の点で無視できる劣化で、チャネル上に分散するデータの量を最小化する最適な設定を特定することである。
この目的のために、既に利用可能なオブジェクト検出アルゴリズムを拡張し、入力、カメラ画像、LiDAR点雲、または2つの組み合わせとして考慮し、2つの現実的なデータセットを用いて異なるアプローチの精度性能を比較する。
以上の結果から,センサフュージョンは常により正確な検出を実現するが,LiDARのみの入力はチャネルの負荷を軽減しつつ,大きな物体に対して同様の結果を得ることができることがわかった。
関連論文リスト
- Learning 3D Perception from Others' Predictions [64.09115694891679]
本研究では,3次元物体検出装置を構築するための新たなシナリオについて検討する。
例えば、自動運転車が新しいエリアに入ると、その領域に最適化された検出器を持つ他の交通参加者から学ぶことができる。
論文 参考訳(メタデータ) (2024-10-03T16:31:28Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Multimodal Dataset from Harsh Sub-Terranean Environment with Aerosol
Particles for Frontier Exploration [55.41644538483948]
本稿では, エアロゾル粒子を用いた過酷で非構造的な地下環境からのマルチモーダルデータセットを提案する。
ロボットオペレーティング・システム(ROS)フォーマットのすべてのオンボードセンサーから、同期された生データ計測を含んでいる。
本研究の焦点は、時間的・空間的なデータの多様性を捉えることだけでなく、取得したデータに厳しい条件が及ぼす影響を示すことである。
論文 参考訳(メタデータ) (2023-04-27T20:21:18Z) - Edge-Aided Sensor Data Sharing in Vehicular Communication Networks [8.67588704947974]
車両・車間通信と車両・車間通信を併用した車両ネットワークにおけるセンサデータ共有と融合を考察する。
本稿では、エッジサーバが車両からセンサ計測データを収集・キャッシュするBidirectional Feedback Noise Estimation (BiFNoE) 手法を提案する。
認識精度は平均80%向上し, アップリンクは12kbps, ダウンリンク帯域は28kbpsであった。
論文 参考訳(メタデータ) (2022-06-17T16:30:56Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Comparative study of 3D object detection frameworks based on LiDAR data
and sensor fusion techniques [0.0]
知覚システムは、車両の環境をリアルタイムで正確に解釈する上で重要な役割を果たす。
ディープラーニング技術は、センサーから大量のデータを意味情報に変換する。
3Dオブジェクト検出法は、LiDARやステレオカメラなどのセンサーから追加のポーズデータを利用することで、オブジェクトのサイズと位置に関する情報を提供する。
論文 参考訳(メタデータ) (2022-02-05T09:34:58Z) - Detecting and Identifying Optical Signal Attacks on Autonomous Driving
Systems [25.32946739108013]
攻撃対象のセンサーを検知・識別する枠組みを提案する。
具体的には、3つのセンサーからなるシステムに対する攻撃を検知する新しい手法を最初に開発する。
本研究では,実データと最先端機械学習モデルを用いて,攻撃検出手法の評価を行う。
論文 参考訳(メタデータ) (2021-10-20T12:21:04Z) - Radar Voxel Fusion for 3D Object Detection [0.0]
本稿では,3次元物体検出のための低レベルセンサ融合ネットワークを開発する。
レーダーセンサーの融合は、雨や夜景のような裂け目状態において特に有益である。
論文 参考訳(メタデータ) (2021-06-26T20:34:12Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - High-Precision Digital Traffic Recording with Multi-LiDAR Infrastructure
Sensor Setups [0.0]
融解したLiDAR点雲と単一LiDAR点雲との差について検討した。
抽出した軌道の評価は, 融合インフラストラクチャーアプローチが追跡結果を著しく増加させ, 数cm以内の精度に達することを示す。
論文 参考訳(メタデータ) (2020-06-22T10:57:52Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。