論文の概要: Dual Radar SAR Controller
- arxiv url: http://arxiv.org/abs/2309.00006v1
- Date: Tue, 27 Jun 2023 09:31:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 11:45:06.274776
- Title: Dual Radar SAR Controller
- Title(参考訳): デュアルレーダSARコントローラ
- Authors: Josiah Smith
- Abstract要約: このスキャナーは2022年の春学期、Josiah Smith (RA)、Yusef Alimam (UG)、Geetika Vedula (UG)によって設計された。
このシステムは、マイクロコントローラソフトウェアを実行するパーソナルコンピュータ(PC)によって操作される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The following is a user guide for the Dual Radar SAR Controller graphical
user interface (GUI) to operate the dual radar synthetic aperture radar (SAR)
scanner. The scanner was designed in the Spring semester of 2022 by Josiah
Smith (RA), Yusef Alimam (UG), and Geetika Vedula (UG) with multiple axes of
motion for the radar and target under test. The system is operated by a
personal computer (PC) running MATLAB. An AMC4030 motion controller is employed
to control the mechanical system. An ESP32 microcontroller synchronizes the
mechanical motion and radar frame firing to achieving precise positioning at
high movement speeds; the software was designed by Josiah Smith (RA) and
Benjamin Roy (UG). A second system is designed that employs 3-axes of motion
(X-Y + rotation) for fine control over the location of the target under test.
The entire system is capable of efficiently collecting data from colocated and
non-colocated radars for multiband fusion imaging in addition to simple single
radar imaging.
- Abstract(参考訳): 以下は、デュアルレーダ合成開口レーダ(SAR)スキャナーを操作するための、デュアルレーダSARコントローラグラフィカルユーザインタフェース(GUI)のユーザガイドである。
このスキャナーは2022年の春学期、Josiah Smith (RA)、Yusef Alimam (UG)、Geetika Vedula (UG) によって設計され、レーダーと目標の複数の軸が試験中であった。
このシステムは、MATLABを実行するパーソナルコンピュータ(PC)によって操作される。
機械系の制御にはAMC4030モーションコントローラが使用される。
ESP32マイクロコントローラは、機械的な動きとレーダーフレームの発射を同期させ、高精度な位置決めを高速で達成し、ソフトウェアはJosiah Smith (RA) とBenjamin Roy (UG) によって設計された。
第2のシステムは3軸の運動(X-Y + 回転)を用いて、試験対象の位置を細かく制御するように設計されている。
システムは、単純な単一レーダーイメージングに加えて、マルチバンド核融合イメージングのために、コロケーションと非コロケーションレーダーからのデータを効率的に収集することができる。
関連論文リスト
- Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Better Monocular 3D Detectors with LiDAR from the Past [64.6759926054061]
カメラベースの3D検出器は、画像の奥行きのあいまいさのため、LiDARベースの検出器に比べて性能が劣ることが多い。
本研究では,未ラベルの歴史的LiDARデータを活用することにより,単分子3D検出器の改良を図る。
複数の最先端モデルやデータセットに対して,9.66ミリ秒の追加レイテンシとストレージコストの低い,一貫性と大幅なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-04-08T01:38:43Z) - RCBEVDet: Radar-camera Fusion in Bird's Eye View for 3D Object Detection [33.07575082922186]
3次元物体検出は、自律運転における重要なタスクの1つである。
カメラのみに頼って高度に正確で頑丈な3Dオブジェクト検出を実現するのは難しい。
鳥眼ビュー(BEV)におけるレーダーカメラ融合3次元物体検出法
RadarBEVNetはデュアルストリームのレーダーバックボーンとRadar Cross-Section (RC)対応のBEVエンコーダで構成されている。
論文 参考訳(メタデータ) (2024-03-25T06:02:05Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - RC-BEVFusion: A Plug-In Module for Radar-Camera Bird's Eye View Feature
Fusion [11.646949644683755]
本稿では,BEV平面上のモジュラーレーダカメラ融合ネットワークであるRC-BEVFusionを紹介する。
nuScenes検出スコアは最大28%向上した。
論文 参考訳(メタデータ) (2023-05-25T09:26:04Z) - Deep Radar Inverse Sensor Models for Dynamic Occupancy Grid Maps [0.0]
本稿では,レーダー検出から極性測定格子へのマッピングを学習するために,深層学習に基づく逆センサモデル(ISM)を提案する。
私たちのアプローチは、視野の限られたレーダーから極性スキームで1フレームの計測グリッドを学習する最初の方法です。
これにより、ネットワークの再トレーニングや360度センサのカバレッジの必要なしに、1つ以上のレーダーセンサーを柔軟に使用することが可能になります。
論文 参考訳(メタデータ) (2023-05-21T09:09:23Z) - Raw High-Definition Radar for Multi-Task Learning [0.0]
本研究では、レンジ・アジマス・ドップラー3Dテンソルの計算オーバーヘッドを解消する新しいHDレーダセンシングモデルFFT-RadNetを提案する。
FFT-RadNetは車両の検知と自由運転スペースの分断のために訓練されている。
どちらのタスクでも、最新のレーダベースのモデルと競合するが、計算量やメモリは少ない。
論文 参考訳(メタデータ) (2021-12-20T16:15:26Z) - Rethinking of Radar's Role: A Camera-Radar Dataset and Systematic
Annotator via Coordinate Alignment [38.24705460170415]
CRUWと呼ばれる新しいデータセットを体系的なアノテーションとパフォーマンス評価システムで提案する。
CRUWは、レーダーの無線周波数(RF)画像から3Dのオブジェクトを純粋に分類し、ローカライズすることを目指しています。
私たちの知る限り、CRUWは体系的なアノテーションと評価システムを備えた最初の公開大規模データセットです。
論文 参考訳(メタデータ) (2021-05-11T17:13:45Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。