論文の概要: All-Weather Object Recognition Using Radar and Infrared Sensing
- arxiv url: http://arxiv.org/abs/2010.16285v1
- Date: Fri, 30 Oct 2020 14:16:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 17:22:26.978958
- Title: All-Weather Object Recognition Using Radar and Infrared Sensing
- Title(参考訳): レーダーと赤外線センシングを用いた全天候物体認識
- Authors: Marcel Sheeny
- Abstract要約: この論文は、物体を認識するために、長波偏光赤外線(IR)画像とイメージングレーダに基づく新しいセンシング開発を探求する。
まず、偏光赤外データを用いたストークスパラメータに基づく手法を開発し、深層ニューラルネットワークを用いた車両の認識を行った。
第2に、低THzレーダセンサで捉えたパワースペクトルのみを用いて、制御されたシナリオで物体認識を行う可能性について検討した。
最後に、悪天候下で車両を検出するレーダーロバスト性を示す多くの異なる気象シナリオを備えた、"ワイルド"に新しい大規模なデータセットを作成しました。
- 参考スコア(独自算出の注目度): 1.7513645771137178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous cars are an emergent technology which has the capacity to change
human lives. The current sensor systems which are most capable of perception
are based on optical sensors. For example, deep neural networks show
outstanding results in recognising objects when used to process data from
cameras and Light Detection And Ranging (LiDAR) sensors. However these sensors
perform poorly under adverse weather conditions such as rain, fog, and snow due
to the sensor wavelengths. This thesis explores new sensing developments based
on long wave polarised infrared (IR) imagery and imaging radar to recognise
objects. First, we developed a methodology based on Stokes parameters using
polarised infrared data to recognise vehicles using deep neural networks.
Second, we explored the potential of using only the power spectrum captured by
low-THz radar sensors to perform object recognition in a controlled scenario.
This latter work is based on a data-driven approach together with the
development of a data augmentation method based on attenuation, range and
speckle noise. Last, we created a new large-scale dataset in the "wild" with
many different weather scenarios (sunny, overcast, night, fog, rain and snow)
showing radar robustness to detect vehicles in adverse weather. High resolution
radar and polarised IR imagery, combined with a deep learning approach, are
shown as a potential alternative to current automotive sensing systems based on
visible spectrum optical technology as they are more robust in severe weather
and adverse light conditions.
- Abstract(参考訳): 自動運転車は、人間の生活を変える能力を持つ緊急技術である。
知覚能力が最も高い現在のセンサーシステムは光学センサーをベースとしている。
例えば、ディープニューラルネットワークは、カメラやLiDAR(Light Detection And Ranging)センサーからのデータを処理する際にオブジェクトを認識する際、優れた結果を示す。
しかし、これらのセンサは、雨、霧、雪などの悪天候下では、センサーの波長による性能が悪い。
この論文は、物体を認識するための長波偏光赤外線(ir)画像とイメージングレーダに基づく新しいセンシングの発展を探求する。
まず、偏光赤外データを用いたストークスパラメータに基づく手法を開発し、深層ニューラルネットワークを用いた車両の認識を行った。
第2に,低thzレーダセンサで捕捉されたパワースペクトルのみを使用して,制御されたシナリオで物体認識を行う可能性を検討した。
後者の研究は、減衰、範囲、スペックルノイズに基づくデータ拡張手法の開発とともに、データ駆動アプローチに基づいている。
最後に私たちは、さまざまな天候シナリオ(正気、オーバーキャスト、夜、霧、雨、雪)で、悪天候下で車両を検出するレーダーロバスト性を示す"ワイルド"に新しい大規模なデータセットを作成しました。
高分解能レーダーと偏光赤外線画像は、深層学習のアプローチと相まって、現在の可視光技術に基づく自動車センシングシステムの潜在的な選択肢として示され、厳しい天候や悪条件下ではより堅牢である。
関連論文リスト
- A Resource Efficient Fusion Network for Object Detection in Bird's-Eye View using Camera and Raw Radar Data [7.2508100569856975]
レーダデータの生のレンジ・ドップラースペクトルを用いてカメラ画像を処理する。
カメラエンコーダデコーダアーキテクチャを用いて,対応する特徴を抽出する。
得られた特徴写像はレンジ・アジマス特徴と融合し、RDスペクトルから復元して物体検出を行う。
論文 参考訳(メタデータ) (2024-11-20T13:26:13Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - The Radar Ghost Dataset -- An Evaluation of Ghost Objects in Automotive Radar Data [12.653873936535149]
典型的な交通シナリオでは、レーダーの放射された信号に対して、さらに多くの表面が平坦に見える。
この結果、レーダー信号のマルチパス反射、いわゆるゴースト検出が生じる。
各種のゴースト検出のための詳細な手動アノテーションを用いたデータセットを提案する。
論文 参考訳(メタデータ) (2024-04-01T19:20:32Z) - Exploring Radar Data Representations in Autonomous Driving: A Comprehensive Review [9.68427762815025]
レビューでは、自律運転システムで使用されるさまざまなレーダーデータ表現の探索に焦点を当てている。
レーダセンサの機能と限界について紹介する。
各レーダ表現について、関連するデータセット、方法、利点、限界について検討する。
論文 参考訳(メタデータ) (2023-12-08T06:31:19Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - RadarFormer: Lightweight and Accurate Real-Time Radar Object Detection
Model [13.214257841152033]
レーダー中心のデータセットは、レーダー知覚のためのディープラーニング技術の開発にはあまり注目されていない。
本稿では,視覚深層学習における最先端技術を活用したトランスフォーマーモデルRadarFormerを提案する。
また、チャネルチャープ時マージモジュールを導入し、精度を損なうことなく、モデルのサイズと複雑さを10倍以上に削減する。
論文 参考訳(メタデータ) (2023-04-17T17:07:35Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - Rethinking of Radar's Role: A Camera-Radar Dataset and Systematic
Annotator via Coordinate Alignment [38.24705460170415]
CRUWと呼ばれる新しいデータセットを体系的なアノテーションとパフォーマンス評価システムで提案する。
CRUWは、レーダーの無線周波数(RF)画像から3Dのオブジェクトを純粋に分類し、ローカライズすることを目指しています。
私たちの知る限り、CRUWは体系的なアノテーションと評価システムを備えた最初の公開大規模データセットです。
論文 参考訳(メタデータ) (2021-05-11T17:13:45Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。