論文の概要: Robust Human Detection under Visual Degradation via Thermal and mmWave
Radar Fusion
- arxiv url: http://arxiv.org/abs/2307.03623v1
- Date: Fri, 7 Jul 2023 14:23:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 12:09:08.244616
- Title: Robust Human Detection under Visual Degradation via Thermal and mmWave
Radar Fusion
- Title(参考訳): 熱・ミリ波レーダ融合による視覚劣化下でのロバストな人体検出
- Authors: Kaiwen Cai, Qiyue Xia, Peize Li, John Stankovic and Chris Xiaoxuan Lu
- Abstract要約: 携帯型熱カメラと単チップmm波レーダを組み合わせたマルチモーダル人体検知システムを提案する。
本稿では, ベイズ特徴抽出器と, 競合する様々な手法を超越した新しい不確実性誘導融合法を提案する。
提案手法を実世界のデータ収集において評価し,提案手法が最先端の手法よりも大きなマージンで優れていることを示す。
- 参考スコア(独自算出の注目度): 4.178845249771262
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The majority of human detection methods rely on the sensor using visible
lights (e.g., RGB cameras) but such sensors are limited in scenarios with
degraded vision conditions. In this paper, we present a multimodal human
detection system that combines portable thermal cameras and single-chip mmWave
radars. To mitigate the noisy detection features caused by the low contrast of
thermal cameras and the multi-path noise of radar point clouds, we propose a
Bayesian feature extractor and a novel uncertainty-guided fusion method that
surpasses a variety of competing methods, either single-modal or multi-modal.
We evaluate the proposed method on real-world data collection and demonstrate
that our approach outperforms the state-of-the-art methods by a large margin.
- Abstract(参考訳): 人間の検出法の大半は、可視光(例えばRGBカメラ)を用いたセンサーに依存しているが、そのようなセンサーは劣化した視覚条件のシナリオに限られている。
本稿では,携帯型熱カメラと単一チップmmWaveレーダを組み合わせたマルチモーダルヒューマン検知システムを提案する。
サーマルカメラのコントラストの低さとレーダポイント雲のマルチパスノイズに起因するノイズ検出特性を緩和するために,単一モードとマルチモーダルの,様々な競合手法を超えるベイズ特徴抽出器と新しい不確実性誘導核融合法を提案する。
提案手法を実世界のデータ収集において評価し,提案手法が最先端の手法よりも大きなマージンで優れていることを示す。
関連論文リスト
- Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - RIDERS: Radar-Infrared Depth Estimation for Robust Sensing [22.10378524682712]
逆気象条件は正確な深度推定に重大な課題をもたらす。
本研究では,ミリ波レーダと単眼赤外線サーマルカメラを融合させて,ロバストな距離推定手法を提案する。
本手法は、曖昧さと不一致の課題に対処することにより、異常な視覚的品質と正確な計量推定を実現する。
論文 参考訳(メタデータ) (2024-02-03T07:14:43Z) - Radarize: Enhancing Radar SLAM with Generalizable Doppler-Based Odometry [9.420543997290126]
Radarizeは、コモディティ単一チップmmWaveレーダーのみを使用する、自己完結型SLAMパイプラインである。
本手法は,最先端のレーダおよびレーダ慣性アプローチを計測値で約5倍,エンドツーエンドのSLAMで約8倍に向上する。
論文 参考訳(メタデータ) (2023-11-19T07:47:11Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Multimodal Industrial Anomaly Detection via Hybrid Fusion [59.16333340582885]
ハイブリッド核融合方式を用いた新しいマルチモーダル異常検出法を提案する。
本モデルでは,MVTecD-3 ADデータセットにおける検出精度とセグメンテーション精度の両面で,最先端(SOTA)手法より優れている。
論文 参考訳(メタデータ) (2023-03-01T15:48:27Z) - Bridging the View Disparity of Radar and Camera Features for Multi-modal
Fusion 3D Object Detection [6.959556180268547]
本稿では3次元物体検出にミリ波レーダとカメラセンサ融合を用いる方法について述べる。
より優れた特徴表現のための鳥眼ビュー(BEV)における特徴レベル融合を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-25T13:21:37Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Human Behavior Recognition Method Based on CEEMD-ES Radar Selection [12.335803365712277]
人間の行動を特定するミリ波レーダーは、医療、セキュリティ、その他の分野で広く使われている。
複数のレーダデータを処理するには、多くの時間と計算コストが必要です。
これらの問題を解決するために, 補足型経験モード分解エネルギースライス (CEEMD-ES) マルチスタティックレーダ選択法を提案する。
実験により、この方法はレーダーを効果的に選択できることが示され、3種類の人間の行動の認識率は98.53%である。
論文 参考訳(メタデータ) (2022-06-06T16:01:06Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - Depth Estimation from Monocular Images and Sparse Radar Data [93.70524512061318]
本稿では,ディープニューラルネットワークを用いた単眼画像とレーダ点の融合により,より正確な深度推定を実現する可能性を検討する。
レーダ測定で発生するノイズが,既存の融合法の適用を妨げている主要な理由の1つであることが判明した。
実験はnuScenesデータセット上で行われ、カメラ、レーダー、LiDARの記録を様々な場面と気象条件で記録する最初のデータセットの1つである。
論文 参考訳(メタデータ) (2020-09-30T19:01:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。