論文の概要: DELTA: Dense Depth from Events and LiDAR using Transformer's Attention
- arxiv url: http://arxiv.org/abs/2505.02593v1
- Date: Mon, 05 May 2025 11:59:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.667124
- Title: DELTA: Dense Depth from Events and LiDAR using Transformer's Attention
- Title(参考訳): DELTA: Transformer のアテンションを用いたイベントと LiDAR の深度
- Authors: Vincent Brebion, Julien Moreau, Franck Davoine,
- Abstract要約: 本稿では,深度マップを推定するために,イベントとLiDARデータを融合するニューラルネットワークに基づく新しい手法を提案する。
我々のアーキテクチャであるDELTAは、イベントとLiDARデータの空間的および時間的関係をモデル化するために、自己および横断的意図の概念を利用する。
- 参考スコア(独自算出の注目度): 5.912548466243743
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras and LiDARs provide complementary yet distinct data: respectively, asynchronous detections of changes in lighting versus sparse but accurate depth information at a fixed rate. To this day, few works have explored the combination of these two modalities. In this article, we propose a novel neural-network-based method for fusing event and LiDAR data in order to estimate dense depth maps. Our architecture, DELTA, exploits the concepts of self- and cross-attention to model the spatial and temporal relations within and between the event and LiDAR data. Following a thorough evaluation, we demonstrate that DELTA sets a new state of the art in the event-based depth estimation problem, and that it is able to reduce the errors up to four times for close ranges compared to the previous SOTA.
- Abstract(参考訳): イベントカメラとLiDARは、それぞれ、光とスパースの変化を非同期に検出するが、正確な深度情報を固定レートで提供する。
今日まで、これらの2つのモダリティの組み合わせを探求する研究はほとんどない。
本稿では,高密度深度マップを推定するために,イベントとLiDARデータを融合するニューラルネットワークに基づく新しい手法を提案する。
我々のアーキテクチャであるDELTAは、イベントとLiDARデータの空間的および時間的関係をモデル化するために、自己および横断的意図の概念を利用する。
徹底的な評価の後、DELTAはイベントベース深度推定問題に新たな最先端技術を設定し、従来のSOTAと比較して4倍近い精度で誤差を低減できることを実証した。
関連論文リスト
- EVLoc: Event-based Visual Localization in LiDAR Maps via Event-Depth Registration [13.066369438849872]
イベントカメラはバイオインスパイアされたセンサーで、ハイダイナミックレンジや低レイテンシなどいくつかの特長がある。
既存のLiDARマップ内でのローカライズの可能性を探る。
構造的明瞭度を改善する新しいフレームベースのイベント表現を開発する。
論文 参考訳(メタデータ) (2025-02-28T20:27:49Z) - Prompting Depth Anything for 4K Resolution Accurate Metric Depth Estimation [108.04354143020886]
本稿では、深度基礎モデルにプロンプトを導入し、Prompt Depth Anythingと呼ばれる計量深度推定のための新しいパラダイムを作成する。
低コストのLiDARを用いて、Depth Anythingモデルによる正確なメートル法深度出力を導出し、最大4K解像度を達成する。
論文 参考訳(メタデータ) (2024-12-18T16:32:12Z) - Learning to Estimate Two Dense Depths from LiDAR and Event Data [2.513785998932353]
イベントカメラは画像を生成するのではなく、連続的なイベントの流れであり、各ピクセルの照明変更を独立して非同期にエンコードする。
LiDARは、この深度情報を提供することができるが、自然には非常に疎いため、深度と深度の関係はより複雑になる。
本稿では,イベントカメラとLiDARからの情報を学習に基づくアプローチで融合し,正確な深度マップを推定することで,これらの問題を解決することを提案する。
論文 参考訳(メタデータ) (2023-02-28T09:42:39Z) - Consistent Depth Prediction under Various Illuminations using Dilated
Cross Attention [1.332560004325655]
我々は,インターネット3D屋内シーンを用いて照明を手動で調整し,写真リアルなRGB写真とその対応する深度とBRDFマップを作成することを提案する。
異なる照明条件下での深度予測の整合性を維持するため,これらの拡張された特徴に横断的な注意を払っている。
提案手法は,Variデータセットの最先端手法との比較により評価され,実験で有意な改善が見られた。
論文 参考訳(メタデータ) (2021-12-15T10:02:46Z) - Depth Estimation from Monocular Images and Sparse radar using Deep
Ordinal Regression Network [2.0446891814677692]
我々は, スパースレーダデータを単眼深度推定モデルに統合し, レーダによって提供されるスパースネスと限られた視野を減らすための新しい前処理手法を提案する。
本稿では,Fuらによる深度回帰ネットワークに基づく深度学習を用いて,単眼2次元画像から高密度深度マップを推定する手法を提案する。
論文 参考訳(メタデータ) (2021-07-15T20:17:48Z) - MuSCLE: Multi Sweep Compression of LiDAR using Deep Entropy Models [78.93424358827528]
本稿では,LiDARセンサデータのストレージストリームを削減するための新しい圧縮アルゴリズムを提案する。
本手法は,従来のLiDAR圧縮法よりも接合形状と強度を著しく低減する。
論文 参考訳(メタデータ) (2020-11-15T17:41:14Z) - SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks [81.64530401885476]
本稿では,これら2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
論文 参考訳(メタデータ) (2020-10-19T09:23:39Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Learning Selective Mutual Attention and Contrast for RGB-D Saliency
Detection [145.4919781325014]
クロスモーダル情報を効果的に融合する方法は、RGB-Dの有能な物体検出の鍵となる問題である。
多くのモデルは特徴融合戦略を用いるが、低次点対点融合法によって制限されている。
本研究では,異なるモダリティから注目とコンテキストを融合させることにより,新たな相互注意モデルを提案する。
論文 参考訳(メタデータ) (2020-10-12T08:50:10Z) - Depth Completion via Inductive Fusion of Planar LIDAR and Monocular
Camera [27.978780155504467]
我々は、確率モデルにインスパイアされた異なるセンサのモーダル性をよりよく融合させるインダクティブ遅延融合ブロックを導入する。
このブロックは、疎深度特徴による実演に基づく深度予測を誘導するために、密集したコンテキスト特徴を使用する。
提案手法は,ベンチマークデータセットとシミュレーションデータセットの両方に対する従来のアプローチと比較して有望な結果を示す。
論文 参考訳(メタデータ) (2020-09-03T18:39:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。