論文の概要: Vision Guided MIMO Radar Beamforming for Enhanced Vital Signs Detection
in Crowds
- arxiv url: http://arxiv.org/abs/2306.10515v1
- Date: Sun, 18 Jun 2023 10:09:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 20:16:00.221048
- Title: Vision Guided MIMO Radar Beamforming for Enhanced Vital Signs Detection
in Crowds
- Title(参考訳): 群衆の生体信号検出のためのビジョンガイドMIMOレーダビームフォーミング
- Authors: Shuaifeng Jiang, Ahmed Alkhateeb, Daniel W. Bliss, and Yu Rong
- Abstract要約: 本研究では,レーダ内のデジタルビームフォーミングを誘導するために,視覚センサを活用する新しいデュアルセンシングシステムを開発した。
キャリブレーションされた双対システムは、視野内における3次元空間で約2センチメートルの精度を75円×65円で、2メートルの範囲で達成する。
- 参考スコア(独自算出の注目度): 26.129503530877006
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Radar as a remote sensing technology has been used to analyze human activity
for decades. Despite all the great features such as motion sensitivity, privacy
preservation, penetrability, and more, radar has limited spatial degrees of
freedom compared to optical sensors and thus makes it challenging to sense
crowded environments without prior information. In this paper, we develop a
novel dual-sensing system, in which a vision sensor is leveraged to guide
digital beamforming in a multiple-input multiple-output (MIMO) radar. Also, we
develop a calibration algorithm to align the two types of sensors and show that
the calibrated dual system achieves about two centimeters precision in
three-dimensional space within a field of view of $75^\circ$ by $65^\circ$ and
for a range of two meters. Finally, we show that the proposed approach is
capable of detecting the vital signs simultaneously for a group of closely
spaced subjects, sitting and standing, in a cluttered environment, which
highlights a promising direction for vital signs detection in realistic
environments.
- Abstract(参考訳): リモートセンシング技術としてのレーダーは、人間の活動を分析するために何十年も使われてきた。
モーション感度、プライバシー保護、透過性などの優れた特徴にもかかわらず、レーダーは光学センサーに比べて空間的自由度が制限されているため、事前情報なしで混雑した環境を感知することは困難である。
本稿では,複数入力多重出力 (mimo) レーダにおけるディジタルビームフォーミングの誘導に視覚センサを応用した,新しいデュアルセンシングシステムを開発した。
また,2種類のセンサを整列するキャリブレーションアルゴリズムを開発し,キャリブレーションされたデュアルシステムは,75^\circ$×65^\circ$,及び2mの範囲で3次元空間における約2cm精度を達成可能であることを示した。
最後に,実環境におけるバイタルサイン検出の有望な方向性を浮き彫りにした,座位と立位が密集した被験者群に対して,同時にバイタルサインを検出できることを示す。
関連論文リスト
- MAROON: A Framework for the Joint Characterization of Near-Field High-Resolution Radar and Optical Depth Imaging Techniques [4.816237933371206]
我々は、光学領域と電波領域の両方から深度イメージを特徴付けるというユニークな課題に挑戦する。
本研究では, 対象物, ジオメトリー, 物体間距離について, 深度測定の総合的な評価を行う。
すべてのオブジェクトの測定は、MAROONと呼ばれるマルチモーダルデータセットとして公開されます。
論文 参考訳(メタデータ) (2024-11-01T11:53:10Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Automatic Spatial Calibration of Near-Field MIMO Radar With Respect to Optical Depth Sensors [4.328226032204419]
本稿では,光学RGB-DセンサとMIMOレーダの連成校正手法を提案する。
私たちのパイプラインは、自動目標検出と位置決めを可能にする、ベスポークキャリブレーションターゲットで構成されています。
我々は光学領域から2つの異なる深度センシング技術を用いてアプローチを検証する。
論文 参考訳(メタデータ) (2024-03-16T17:24:46Z) - Fisheye Camera and Ultrasonic Sensor Fusion For Near-Field Obstacle
Perception in Bird's-Eye-View [4.536942273206611]
本稿では,鳥眼ビュー(BEV)の観点からの効率的な障害物認識に適した,エンド・ツー・エンドのマルチモーダル融合モデルを提案する。
魚眼カメラは、後部障害物の定位を含む包括的サラウンドビューの知覚によく使用される。
しかし、このようなカメラの性能は、夜間の低照度、強烈な太陽の輝きにさらされた場合、著しく劣化する可能性がある。
論文 参考訳(メタデータ) (2024-02-01T14:52:16Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - mmSense: Detecting Concealed Weapons with a Miniature Radar Sensor [2.963928676363629]
mmSenseは、人体に隠された金属物の存在を正確に検知できる、エンドツーエンドのポータブルなリアルタイムシステムだ。
mmSenseは、データ取得のためにGoogleのSoliセンサーによって提供されるミリ波レーダー技術と、19ミリ秒で単一のレーダーデータフレームを処理できるリアルタイムニューラルネットワークであるTransDopeを備えています。
論文 参考訳(メタデータ) (2023-02-28T15:06:03Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - ImLiDAR: Cross-Sensor Dynamic Message Propagation Network for 3D Object
Detection [20.44294678711783]
我々は,カメラ画像とLiDAR点雲のマルチスケール特徴を段階的に融合させることにより,センサ間差を狭める新しい3ODパラダイムであるImLiDARを提案する。
まず,マルチスケール画像とポイント特徴の最良の組み合わせを目的とした,クロスセンサ動的メッセージ伝搬モジュールを提案する。
第二に、効率的なセットベース検出器を設計できるような、直接セット予測問題を提起する。
論文 参考訳(メタデータ) (2022-11-17T13:31:23Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。