論文の概要: Distance Estimation in Outdoor Driving Environments Using Phase-only Correlation Method with Event Cameras
- arxiv url: http://arxiv.org/abs/2505.17582v1
- Date: Fri, 23 May 2025 07:44:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.903005
- Title: Distance Estimation in Outdoor Driving Environments Using Phase-only Correlation Method with Event Cameras
- Title(参考訳): 位相限定相関法とイベントカメラを用いた屋外運転環境における距離推定
- Authors: Masataka Kobayashi, Shintaro Shiba, Quan Kong, Norimasa Kobori, Tsukasa Shimizu, Shan Lu, Takaya Yamazato,
- Abstract要約: 単眼イベントカメラと路面LEDバーを用いた距離推定手法を提案する。
提案手法は,20mから60mの範囲で0.5m以下の誤差で90%以上の成功率を達成する。
将来的には、LEDを備えたスマートポールなどのインフラを活用して、この手法を全位置推定に拡張する予定である。
- 参考スコア(独自算出の注目度): 5.690128924544198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing adoption of autonomous driving, the advancement of sensor technology is crucial for ensuring safety and reliable operation. Sensor fusion techniques that combine multiple sensors such as LiDAR, radar, and cameras have proven effective, but the integration of multiple devices increases both hardware complexity and cost. Therefore, developing a single sensor capable of performing multiple roles is highly desirable for cost-efficient and scalable autonomous driving systems. Event cameras have emerged as a promising solution due to their unique characteristics, including high dynamic range, low latency, and high temporal resolution. These features enable them to perform well in challenging lighting conditions, such as low-light or backlit environments. Moreover, their ability to detect fine-grained motion events makes them suitable for applications like pedestrian detection and vehicle-to-infrastructure communication via visible light. In this study, we present a method for distance estimation using a monocular event camera and a roadside LED bar. By applying a phase-only correlation technique to the event data, we achieve sub-pixel precision in detecting the spatial shift between two light sources. This enables accurate triangulation-based distance estimation without requiring stereo vision. Field experiments conducted in outdoor driving scenarios demonstrated that the proposed approach achieves over 90% success rate with less than 0.5-meter error for distances ranging from 20 to 60 meters. Future work includes extending this method to full position estimation by leveraging infrastructure such as smart poles equipped with LEDs, enabling event-camera-based vehicles to determine their own position in real time. This advancement could significantly enhance navigation accuracy, route optimization, and integration into intelligent transportation systems.
- Abstract(参考訳): 自動運転の普及に伴い、センサー技術の進歩は安全性と信頼性を確保するために不可欠である。
LiDAR、レーダー、カメラといった複数のセンサーを組み合わせたセンサー融合技術は、有効であることが証明されているが、複数のデバイスを統合することで、ハードウェアの複雑さとコストが増大する。
したがって、低コストでスケーラブルな自律運転システムには、複数の役割を担える単一センサの開発が極めて望ましい。
イベントカメラは、高ダイナミックレンジ、低レイテンシ、高時間分解能などの特徴から、期待できるソリューションとして登場した。
これらの特徴は、低照度やバックライト環境など、困難な照明条件でうまく機能する。
さらに、細粒度の動きイベントを検出する能力は、歩行者検出や可視光による車間通信などの用途に適している。
本研究では,単眼イベントカメラと路面LEDバーを用いた距離推定手法を提案する。
位相限定相関法をイベントデータに適用することにより、2つの光源間の空間シフトを検出する際のサブピクセル精度を実現する。
これにより立体視を必要とせずに正確な三角測量に基づく距離推定が可能となる。
野外走行実験では,20mから60mの距離で0.5m未満の誤差で90%以上の成功率を達成した。
将来的には、LEDを備えたスマートポールなどのインフラを活用して、この手法を全位置推定に拡張し、イベントカメラベースの車両がリアルタイムで位置を判断できるようにする予定である。
この進歩は、航法精度、経路最適化、インテリジェント輸送システムへの統合を著しく向上させる可能性がある。
関連論文リスト
- Planar Velocity Estimation for Fast-Moving Mobile Robots Using Event-Based Optical Flow [1.4447019135112429]
本稿では,車輪と表面のトラクションの仮定から分離した速度推定手法を提案する。
提案手法は1:10スケールの自律レースプラットフォーム上でのフィールド実験により評価される。
論文 参考訳(メタデータ) (2025-05-16T11:00:33Z) - Application of YOLOv8 in monocular downward multiple Car Target detection [0.0]
本稿では,YOLOv8に基づく自律目標検出ネットワークの改良について述べる。
提案手法は,マルチスケール,小型,遠隔オブジェクトの高精度かつ高精度な検出を実現する。
実験結果から,大小の物体を65%の精度で効果的に検出できることが示唆された。
論文 参考訳(メタデータ) (2025-05-15T06:58:45Z) - Vision-Based Detection of Uncooperative Targets and Components on Small Satellites [6.999319023465766]
宇宙デブリと不活性衛星は、運用宇宙船の安全性と完全性に脅威をもたらす。
コンピュータビジョンモデルの最近の進歩は、そのような非協調的な目標を追跡する既存の方法を改善するために利用することができる。
本稿では,これらの物体を学習とコンピュータビジョンを用いて識別・監視する自律検出モデルを提案する。
論文 参考訳(メタデータ) (2024-08-22T02:48:13Z) - Deep Learning-Based Robust Multi-Object Tracking via Fusion of mmWave Radar and Camera Sensors [6.166992288822812]
複雑なトラフィックシナリオを通じて、より安全で効率的なナビゲーションを実現する上で、マルチオブジェクトトラッキングは重要な役割を果たす。
本稿では,自律走行システムにおける複数物体追跡の精度とロバスト性を高めるために,レーダデータとカメラデータを統合した新しいディープラーニング方式を提案する。
論文 参考訳(メタデータ) (2024-07-10T21:09:09Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Holistic Grid Fusion Based Stop Line Estimation [5.5476621209686225]
交差点で前もって停止する場所を知ることは、車両の長手速度を制御する上で必須のパラメータである。
文献における既存の手法のほとんどは、カメラのみを使用して停止線を検出するが、通常は検出範囲の点で不十分である。
本稿では,ステレオカメラやライダーなどの融合多感データを入力として活用し,ニューラルネットワークアーキテクチャを慎重に設計し,停止線を検出する手法を提案する。
論文 参考訳(メタデータ) (2020-09-18T21:29:06Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。