論文の概要: Design of Sensor Fusion Driver Assistance System for Active Pedestrian
Safety
- arxiv url: http://arxiv.org/abs/2201.09208v1
- Date: Sun, 23 Jan 2022 08:52:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 17:21:42.627107
- Title: Design of Sensor Fusion Driver Assistance System for Active Pedestrian
Safety
- Title(参考訳): アクティブ歩行者安全のためのセンサフュージョンドライバ支援システムの設計
- Authors: I-Hsi Kao, Ya-Zhu Yian, Jian-An Su, Yi-Horng Lai, Jau-Woei Perng,
Tung-Li Hsieh, Yi-Shueh Tsai, and Min-Shiu Hsieh
- Abstract要約: 本稿では,カメラと1次元光検出とオブジェクト検出のための距離(ライダー)センサを組み合わせたセンサ融合検出システムを提案する。
提案システムは,車両前方における歩行者や物体検出の高精度化を実現し,特殊環境に対するロバスト性が高い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a parallel architecture for a sensor fusion
detection system that combines a camera and 1D light detection and ranging
(lidar) sensor for object detection. The system contains two object detection
methods, one based on an optical flow, and the other using lidar. The two
sensors can effectively complement the defects of the other. The accurate
longitudinal accuracy of the object's location and its lateral movement
information can be achieved simultaneously. Using a spatio-temporal alignment
and a policy of sensor fusion, we completed the development of a fusion
detection system with high reliability at distances of up to 20 m. Test results
show that the proposed system achieves a high level of accuracy for pedestrian
or object detection in front of a vehicle, and has high robustness to special
environments.
- Abstract(参考訳): 本稿では,カメラと物体検出のための1次元光検出・測光(lidar)センサを組み合わせた,センサ融合検出システムのための並列アーキテクチャを提案する。
このシステムは、光学フローに基づく2つの物体検出方法と、lidarを用いたもう1つの方法を含む。
2つのセンサーは、他方の欠陥を効果的に補うことができる。
物体の位置とその横移動情報の正確な経時的精度を同時に達成することができる。
時空間的アライメントとセンサ融合の方針を用いて,20mまでの距離に高い信頼性を有する核融合検出システムの開発を完了した。
実験結果から,提案方式は車両前方の歩行者や物体の検出において高い精度を実現し,特殊環境に対して高いロバスト性を有することがわかった。
関連論文リスト
- Automatic Spatial Calibration of Near-Field MIMO Radar With Respect to Optical Depth Sensors [4.328226032204419]
本稿では,光学RGB-DセンサとMIMOレーダの連成校正手法を提案する。
私たちのパイプラインは、自動目標検出と位置決めを可能にする、ベスポークキャリブレーションターゲットで構成されています。
我々は光学領域から2つの異なる深度センシング技術を用いてアプローチを検証する。
論文 参考訳(メタデータ) (2024-03-16T17:24:46Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Vision Guided MIMO Radar Beamforming for Enhanced Vital Signs Detection
in Crowds [26.129503530877006]
本研究では,レーダ内のデジタルビームフォーミングを誘導するために,視覚センサを活用する新しいデュアルセンシングシステムを開発した。
キャリブレーションされた双対システムは、視野内における3次元空間で約2センチメートルの精度を75円×65円で、2メートルの範囲で達成する。
論文 参考訳(メタデータ) (2023-06-18T10:09:16Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - Detecting and Identifying Optical Signal Attacks on Autonomous Driving
Systems [25.32946739108013]
攻撃対象のセンサーを検知・識別する枠組みを提案する。
具体的には、3つのセンサーからなるシステムに対する攻撃を検知する新しい手法を最初に開発する。
本研究では,実データと最先端機械学習モデルを用いて,攻撃検出手法の評価を行う。
論文 参考訳(メタデータ) (2021-10-20T12:21:04Z) - On the Role of Sensor Fusion for Object Detection in Future Vehicular
Networks [25.838878314196375]
異なるセンサの組み合わせが車両の移動・運転環境の検出にどのように影響するかを評価します。
最終的な目標は、チャネルに分散するデータの量を最小限に抑える最適な設定を特定することです。
論文 参考訳(メタデータ) (2021-04-23T18:58:37Z) - GEM: Glare or Gloom, I Can Still See You -- End-to-End Multimodal Object
Detector [11.161639542268015]
厳しい照明条件下での2次元物体検出のためのセンサ対応マルチモーダル融合戦略を提案する。
本ネットワークは,各センサモダリティの測定信頼性をスカラーウェイトとマスクの形で推定する。
提案手法はFLIR-Thermalデータセット上で既存の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-24T14:56:37Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z) - Learning Selective Sensor Fusion for States Estimation [47.76590539558037]
本稿では,エンド・ツー・エンドのセンサ・フュージョン・モジュールであるSelectFusionを提案する。
予測中、ネットワークは異なるセンサーモードから潜伏する特徴の信頼性を評価することができる。
我々は、公開データセットと漸進的に劣化したデータセットの両方において、すべての融合戦略を広範囲に評価する。
論文 参考訳(メタデータ) (2019-12-30T20:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。