論文の概要: Depth Sensing Beyond LiDAR Range
- arxiv url: http://arxiv.org/abs/2004.03048v1
- Date: Tue, 7 Apr 2020 00:09:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 00:05:34.889843
- Title: Depth Sensing Beyond LiDAR Range
- Title(参考訳): LiDAR範囲を超える深度センシング
- Authors: Kai Zhang, Jiaxin Xie, Noah Snavely, Qifeng Chen
- Abstract要約: 小型の視野カメラを用いた3カメラシステムを提案する。
我々のシステムは、計量深度を計算するための新しいアルゴリズムとともに、完全な事前校正を必要としない。
遠距離のシーンや物体に対して、事実上許容できる精度で密集した深度マップを出力することができる。
- 参考スコア(独自算出の注目度): 84.19507822574568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth sensing is a critical component of autonomous driving technologies, but
today's LiDAR- or stereo camera-based solutions have limited range. We seek to
increase the maximum range of self-driving vehicles' depth perception modules
for the sake of better safety. To that end, we propose a novel three-camera
system that utilizes small field of view cameras. Our system, along with our
novel algorithm for computing metric depth, does not require full
pre-calibration and can output dense depth maps with practically acceptable
accuracy for scenes and objects at long distances not well covered by most
commercial LiDARs.
- Abstract(参考訳): 深度センサーは自動運転技術の重要な要素だが、今日のLiDARやステレオカメラベースのソリューションには限界がある。
我々は、安全のために、自動運転車の深度認識モジュールの最大範囲を増やすことを目指している。
そこで本稿では,小型の視野カメラを用いた3カメラシステムを提案する。
提案手法は, 距離の深さを計算できる新しいアルゴリズムとともに, 完全な事前校正を必要とせず, 長距離のシーンや物体に対して, 事実上許容できる精度で高密度な深度マップを出力できる。
関連論文リスト
- Better Monocular 3D Detectors with LiDAR from the Past [64.6759926054061]
カメラベースの3D検出器は、画像の奥行きのあいまいさのため、LiDARベースの検出器に比べて性能が劣ることが多い。
本研究では,未ラベルの歴史的LiDARデータを活用することにより,単分子3D検出器の改良を図る。
複数の最先端モデルやデータセットに対して,9.66ミリ秒の追加レイテンシとストレージコストの低い,一貫性と大幅なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-04-08T01:38:43Z) - Neural Rendering based Urban Scene Reconstruction for Autonomous Driving [8.007494499012624]
ニューラルな暗黙表面と放射場を組み合わせたフレームワークを用いたマルチモーダル3次元シーン再構成を提案する。
Dense 3Dリコンストラクションは、自動アノテーションバリデーションを含む自動走行に多くの応用がある。
我々は,挑戦的な自動車シーンの質的,定量的な結果を示す。
論文 参考訳(メタデータ) (2024-02-09T23:20:23Z) - Unsupervised confidence for LiDAR depth maps and applications [43.474845978673166]
疎LiDAR深度マップの問題に対処するための効果的な教師なしフレームワークを提案する。
筆者らのフレームワークはスパース深度マップの信頼性を推定し,アウトレーヤのフィルタリングを可能にする。
我々は、この成果が広範囲のタスクをどのように改善できるかを実証する。
論文 参考訳(メタデータ) (2022-10-06T17:59:58Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - LiDARTouch: Monocular metric depth estimation with a few-beam LiDAR [40.98198236276633]
視覚に基づく深度推定は、自律システムにおいて重要な特徴である。
このような単分子配置では、1つまたは複数の高価なLiDARから追加の入力で濃密な深さが得られる。
本稿では,単眼カメラと軽量LiDARを組み合わせることで,距離深度を高密度に推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-08T12:06:31Z) - A Hybrid mmWave and Camera System for Long-Range Depth Imaging [6.665586494560167]
mmWaveレーダーは、ミリ波無線周波数での高帯域幅のため、優れた奥行き分解能を提供する。
しかし、本来は角分解能が悪く、これはカメラシステムより桁違いに悪いため、独立して3Dイメージングソリューションにはならない。
本稿では,レーダーとカメラシステムの相補的な強度を組み合わせたメタモランを提案する。
論文 参考訳(メタデータ) (2021-06-15T03:19:35Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Full Surround Monodepth from Multiple Cameras [31.145598985137468]
自己監督単眼深度と自我運動推定を大型フォトベースラインマルチカメラリグに拡張します。
私たちは、典型的なLiDARスキャナーと同じ全周360度の視野をカバーする、高密度で一貫性のあるスケールアウェアポイントクラウドを生成する単一のネットワークを学びます。
論文 参考訳(メタデータ) (2021-03-31T22:52:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。