論文の概要: MAROON: A Framework for the Joint Characterization of Near-Field High-Resolution Radar and Optical Depth Imaging Techniques
- arxiv url: http://arxiv.org/abs/2411.00527v2
- Date: Tue, 26 Nov 2024 15:44:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:31:31.907733
- Title: MAROON: A Framework for the Joint Characterization of Near-Field High-Resolution Radar and Optical Depth Imaging Techniques
- Title(参考訳): MAROON: 近接場高分解能レーダと光深度イメージング技術の共同評価のためのフレームワーク
- Authors: Vanessa Wirth, Johanna Bräunig, Martin Vossiek, Tim Weyrich, Marc Stamminger,
- Abstract要約: 我々は、光学領域と電波領域の両方から深度イメージを特徴付けるというユニークな課題に挑戦する。
本研究では, 対象物, ジオメトリー, 物体間距離について, 深度測定の総合的な評価を行う。
すべてのオブジェクトの測定は、MAROONと呼ばれるマルチモーダルデータセットとして公開されます。
- 参考スコア(独自算出の注目度): 4.816237933371206
- License:
- Abstract: Utilizing the complementary strengths of wavelength-specific range or depth sensors is crucial for robust computer-assisted tasks such as autonomous driving. Despite this, there is still little research done at the intersection of optical depth sensors and radars operating close range, where the target is decimeters away from the sensors. Together with a growing interest in high-resolution imaging radars operating in the near field, the question arises how these sensors behave in comparison to their traditional optical counterparts. In this work, we take on the unique challenge of jointly characterizing depth imagers from both, the optical and radio-frequency domain using a multimodal spatial calibration. We collect data from four depth imagers, with three optical sensors of varying operation principle and an imaging radar. We provide a comprehensive evaluation of their depth measurements with respect to distinct object materials, geometries, and object-to-sensor distances. Specifically, we reveal scattering effects of partially transmissive materials and investigate the response of radio-frequency signals. All object measurements will be made public in form of a multimodal dataset, called MAROON.
- Abstract(参考訳): 波長比範囲や深度センサーの相補的な強度を活用することは、自律運転のような堅牢なコンピュータ支援タスクに不可欠である。
それにもかかわらず、光学深度センサーとレーダーの交差点で、ターゲットがセンサーから遠ざかる近距離域での観測は、まだほとんど行われていない。
近距離で活動する高解像度イメージングレーダーへの関心の高まりとともに、これらのセンサーが従来の光学的レーダーと比較してどのように振る舞うかという疑問が浮かび上がっている。
本研究では,マルチモーダル空間キャリブレーションを用いて,光領域と電波領域の両方から奥行き画像を共同で特徴付けるという,ユニークな課題について考察する。
我々は,4つの奥行き画像センサから,動作原理の異なる3つの光学センサと撮像レーダを用いてデータを収集する。
本研究では, 対象物, ジオメトリー, 物体間距離について, 深度測定の総合的な評価を行う。
具体的には,部分透過材料の散乱効果を明らかにし,電波信号の応答について検討する。
すべてのオブジェクトの測定は、MAROONと呼ばれるマルチモーダルデータセットとして公開されます。
関連論文リスト
- Performance Assessment of Feature Detection Methods for 2-D FS Sonar Imagery [11.23455335391121]
主な課題は、一様でない照明と、濁った環境での視界の低下である。
高周波フォワードフォワードソナーカメラはこれらの問題に対処する。
5種類のソナー装置の実際のソナー画像を用いた特徴検出器の評価を行った。
論文 参考訳(メタデータ) (2024-09-11T04:35:07Z) - DIDLM:A Comprehensive Multi-Sensor Dataset with Infrared Cameras, Depth Cameras, LiDAR, and 4D Millimeter-Wave Radar in Challenging Scenarios for 3D Mapping [7.050468075029598]
本研究では,屋内・屋外環境における3次元マッピングのための総合的マルチセンサ・データセットを提案する。
このデータセットは、赤外線カメラ、深度カメラ、LiDAR、および4Dミリ波レーダーからのデータで構成されている。
さまざまなSLAMアルゴリズムを使用してデータセットを処理し、異なるシナリオにおけるアルゴリズムのパフォーマンスの違いを明らかにする。
論文 参考訳(メタデータ) (2024-04-15T09:49:33Z) - Automatic Spatial Calibration of Near-Field MIMO Radar With Respect to Optical Depth Sensors [4.328226032204419]
本稿では,光学RGB-DセンサとMIMOレーダの連成校正手法を提案する。
私たちのパイプラインは、自動目標検出と位置決めを可能にする、ベスポークキャリブレーションターゲットで構成されています。
我々は光学領域から2つの異なる深度センシング技術を用いてアプローチを検証する。
論文 参考訳(メタデータ) (2024-03-16T17:24:46Z) - Fisheye Camera and Ultrasonic Sensor Fusion For Near-Field Obstacle
Perception in Bird's-Eye-View [4.536942273206611]
本稿では,鳥眼ビュー(BEV)の観点からの効率的な障害物認識に適した,エンド・ツー・エンドのマルチモーダル融合モデルを提案する。
魚眼カメラは、後部障害物の定位を含む包括的サラウンドビューの知覚によく使用される。
しかし、このようなカメラの性能は、夜間の低照度、強烈な太陽の輝きにさらされた場合、著しく劣化する可能性がある。
論文 参考訳(メタデータ) (2024-02-01T14:52:16Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - On the Importance of Accurate Geometry Data for Dense 3D Vision Tasks [61.74608497496841]
不正確または破損したデータのトレーニングは、モデルバイアスとハマーズ一般化能力を誘導する。
本稿では,深度推定と再構成における高密度3次元視覚課題に対するセンサ誤差の影響について検討する。
論文 参考訳(メタデータ) (2023-03-26T22:32:44Z) - Longwave infrared multispectral image sensor system using
aluminum-germanium plasmonic filter arrays [0.8081564951955755]
マルチスペクトルカメラは、電磁スペクトルの様々な波長で画像データを記録し、従来のカメラが捉えない追加情報を取得する。
アルミニウム基プラズマフィルタアレイをゲルマニウムで挟んだ光学素子を用いて3波長帯のLWIRマルチスペクトル画像センサを実験的に実験した。
本研究は,LWIR領域におけるターゲットシグネチャの検出と,他の高度なスペクトル分析のための多目的分光サーモグラフィ技術を示す。
論文 参考訳(メタデータ) (2023-03-03T01:47:32Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - RRNet: Relational Reasoning Network with Parallel Multi-scale Attention
for Salient Object Detection in Optical Remote Sensing Images [82.1679766706423]
光リモートセンシング画像(RSI)のためのSODは、光学RSIから視覚的に特徴的な物体や領域を探索・抽出することを目的としている。
光学RSIにおけるSODに並列なマルチスケールアテンションを持つリレーショナル推論ネットワークを提案する。
提案するRRNetは,既存の最先端SODコンペティタよりも質的,定量的に優れている。
論文 参考訳(メタデータ) (2021-10-27T07:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。