論文の概要: A Hybrid mmWave and Camera System for Long-Range Depth Imaging
- arxiv url: http://arxiv.org/abs/2106.07856v1
- Date: Tue, 15 Jun 2021 03:19:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-17 04:02:12.035995
- Title: A Hybrid mmWave and Camera System for Long-Range Depth Imaging
- Title(参考訳): 長距離深度イメージングのためのハイブリッドmm波・カメラシステム
- Authors: Diana Zhang, Akarsh Prabhakara, Sirajum Munir, Aswin Sankaranarayanan,
Swarun Kumar
- Abstract要約: mmWaveレーダーは、ミリ波無線周波数での高帯域幅のため、優れた奥行き分解能を提供する。
しかし、本来は角分解能が悪く、これはカメラシステムより桁違いに悪いため、独立して3Dイメージングソリューションにはならない。
本稿では,レーダーとカメラシステムの相補的な強度を組み合わせたメタモランを提案する。
- 参考スコア(独自算出の注目度): 6.665586494560167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: mmWave radars offer excellent depth resolution owing to their high bandwidth
at mmWave radio frequencies. Yet, they suffer intrinsically from poor angular
resolution, that is an order-of-magnitude worse than camera systems, and are
therefore not a capable 3-D imaging solution in isolation. We propose
Metamoran, a system that combines the complimentary strengths of radar and
camera systems to obtain depth images at high azimuthal resolutions at
distances of several tens of meters with high accuracy, all from a single fixed
vantage point. Metamoran enables rich long-range depth imaging outdoors with
applications to roadside safety infrastructure, surveillance and wide-area
mapping. Our key insight is to use the high azimuth resolution from cameras
using computer vision techniques, including image segmentation and monocular
depth estimation, to obtain object shapes and use these as priors for our novel
specular beamforming algorithm. We also design this algorithm to work in
cluttered environments with weak reflections and in partially occluded
scenarios. We perform a detailed evaluation of Metamoran's depth imaging and
sensing capabilities in 200 diverse scenes at a major U.S. city. Our evaluation
shows that Metamoran estimates the depth of an object up to 60~m away with a
median error of 28~cm, an improvement of 13$\times$ compared to a naive
radar+camera baseline and 23$\times$ compared to monocular depth estimation.
- Abstract(参考訳): mmwaveレーダは、mmwave無線周波数の帯域幅が高いため、深度分解能に優れる。
しかし、それらはカメラシステムよりも桁違いに悪い角度分解能に本質的に苦しめられているため、孤立した3dイメージングソリューションには適していない。
本研究では,レーダーとカメラシステムの補完的強みを組み合わせたシステムであるmetamoranを提案する。
Metamoranは、道路沿いの安全インフラ、監視、広域マッピングに応用した、屋外の豊富な長距離深度イメージングを可能にする。
我々の重要な洞察は、画像分割や単眼深度推定を含むコンピュータビジョン技術を用いて、カメラからの高方位分解能を用いて物体形状を求め、これらを新しい鏡面ビームフォーミングアルゴリズムの前駆体として用いることである。
また, このアルゴリズムは, 弱い反射を伴う乱雑な環境や, 部分的に遮蔽されたシナリオで動作するように設計する。
我々は,米国の主要都市の200の多様なシーンにおいて,メタモランの深度イメージングとセンシング能力の詳細な評価を行う。
評価の結果,Metamoranは物体の深さを最大60~mまで推定し,平均誤差は28~cmであり,レーダーカメラベースラインに比べて13$\times$,モノクロ深度推定では23$\times$であることがわかった。
関連論文リスト
- Cross-spectral Gated-RGB Stereo Depth Estimation [34.31592077757453]
ゲート付きカメラがシーンを照らし、シーンのタイムゲートのインパルスを捉えます。
本稿では,これらのマルチモーダルな多視点深度キューを活用可能な新しいステレオ深度推定法を提案する。
提案手法は, 蓄積したLiDAR地盤の100~220mの範囲において, 次の最良既存手法よりも39%高い精度で高精度な深度を実現する。
論文 参考訳(メタデータ) (2024-05-21T13:10:43Z) - Unveiling the Depths: A Multi-Modal Fusion Framework for Challenging
Scenarios [103.72094710263656]
本稿では,学習に基づくフレームワークを用いて,支配的モダリティの奥行きを識別し,統合する手法を提案する。
本稿では,信頼度予測ネットワークを操り,潜在電位深度領域を特定する信頼マップを作成する新しい信頼損失を提案する。
得られた信頼度マップを用いて,最終深度をエンドツーエンドに融合するマルチモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-19T04:39:16Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - RIDERS: Radar-Infrared Depth Estimation for Robust Sensing [22.10378524682712]
逆気象条件は正確な深度推定に重大な課題をもたらす。
本研究では,ミリ波レーダと単眼赤外線サーマルカメラを融合させて,ロバストな距離推定手法を提案する。
本手法は、曖昧さと不一致の課題に対処することにより、異常な視覚的品質と正確な計量推定を実現する。
論文 参考訳(メタデータ) (2024-02-03T07:14:43Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - Uncertainty Guided Depth Fusion for Spike Camera [49.41822923588663]
スパイクカメラのための単分子およびステレオ深度推定ネットワークの予測を融合させる新しい不確かさ誘導深度融合(UGDF)フレームワークを提案する。
我々のフレームワークは、ステレオスパイク深さ推定がより近い範囲でより良い結果をもたらすという事実に動機づけられている。
従来のカメラ深度推定よりもスパイク深度推定の利点を示すため、我々はCitySpike20Kというスパイク深度データセットに貢献する。
論文 参考訳(メタデータ) (2022-08-26T13:04:01Z) - Self-Attention Dense Depth Estimation Network for Unrectified Video
Sequences [6.821598757786515]
LiDARとレーダーセンサーはリアルタイム深度推定のためのハードウェアソリューションである。
深層学習に基づく自己教師付き深度推定法は有望な結果を示した。
未修正画像に対する自己注意に基づく深度・自我移動ネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-28T21:53:53Z) - Depth Sensing Beyond LiDAR Range [84.19507822574568]
小型の視野カメラを用いた3カメラシステムを提案する。
我々のシステムは、計量深度を計算するための新しいアルゴリズムとともに、完全な事前校正を必要としない。
遠距離のシーンや物体に対して、事実上許容できる精度で密集した深度マップを出力することができる。
論文 参考訳(メタデータ) (2020-04-07T00:09:51Z) - Video Depth Estimation by Fusing Flow-to-Depth Proposals [65.24533384679657]
本稿では,映像深度推定のためのフロー・ツー・ディープス・レイヤの異なる手法を提案する。
モデルは、フロー・トゥ・ディープス層、カメラ・ポーズ・リファインメント・モジュール、ディープ・フュージョン・ネットワークから構成される。
提案手法は,最先端の深度推定法より優れ,合理的なデータセット一般化能力を有する。
論文 参考訳(メタデータ) (2019-12-30T10:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。