論文の概要: A Simple and Effective Point-based Network for Event Camera 6-DOFs Pose Relocalization
- arxiv url: http://arxiv.org/abs/2403.19412v1
- Date: Thu, 28 Mar 2024 13:36:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 16:14:04.136317
- Title: A Simple and Effective Point-based Network for Event Camera 6-DOFs Pose Relocalization
- Title(参考訳): イベントカメラ6-DOFのためのシンプルで効果的なポイントベースネットワーク
- Authors: Hongwei Ren, Jiadong Zhu, Yue Zhou, Haotian FU, Yulong Huang, Bojun Cheng,
- Abstract要約: イベントカメラは、高いダイナミックレンジ、非同期性、低レイテンシなどの顕著な特性を示す。
これらのカメラは、イベント中の動きや深度情報を暗黙的に捉え、カメラポーズ・リローカライゼーション(CPR)タスクのためのセンサーをアピールする。
イベントに基づく既存のCPRネットワークは、イベントにおける重要な微粒な時間情報を無視し、不満足なパフォーマンスをもたらす。
PEPNetは,6自由度(6-DOF)イベントカメラのポーズを抑えるために設計された,シンプルで効果的なポイントベースネットワークである。
- 参考スコア(独自算出の注目度): 6.691696783214036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras exhibit remarkable attributes such as high dynamic range, asynchronicity, and low latency, making them highly suitable for vision tasks that involve high-speed motion in challenging lighting conditions. These cameras implicitly capture movement and depth information in events, making them appealing sensors for Camera Pose Relocalization (CPR) tasks. Nevertheless, existing CPR networks based on events neglect the pivotal fine-grained temporal information in events, resulting in unsatisfactory performance. Moreover, the energy-efficient features are further compromised by the use of excessively complex models, hindering efficient deployment on edge devices. In this paper, we introduce PEPNet, a simple and effective point-based network designed to regress six degrees of freedom (6-DOFs) event camera poses. We rethink the relationship between the event camera and CPR tasks, leveraging the raw Point Cloud directly as network input to harness the high-temporal resolution and inherent sparsity of events. PEPNet is adept at abstracting the spatial and implicit temporal features through hierarchical structure and explicit temporal features by Attentive Bi-directional Long Short-Term Memory (A-Bi-LSTM). By employing a carefully crafted lightweight design, PEPNet delivers state-of-the-art (SOTA) performance on both indoor and outdoor datasets with meager computational resources. Specifically, PEPNet attains a significant 38% and 33% performance improvement on the random split IJRR and M3ED datasets, respectively. Moreover, the lightweight design version PEPNet$_{tiny}$ accomplishes results comparable to the SOTA while employing a mere 0.5% of the parameters.
- Abstract(参考訳): イベントカメラは、高ダイナミックレンジ、非同期性、低レイテンシなどの顕著な特性を示し、高速な動作を伴う視覚タスクに非常に適している。
これらのカメラは、イベント中の動きや深度情報を暗黙的に捉え、カメラポーズ・リローカライゼーション(CPR)タスクのためのセンサーをアピールする。
それでも、イベントに基づく既存のCPRネットワークは、イベントにおける重要な微粒な時間情報を無視し、不満足なパフォーマンスをもたらす。
さらに、エネルギー効率の良い特徴は、過度に複雑なモデルを使用することによってさらに損なわれ、エッジデバイスへの効率的なデプロイを妨げている。
本稿では,6自由度(6-DOF)イベントカメラのポーズを抑えるために設計された,シンプルで効果的な点ベースネットワークであるPEPNetを紹介する。
我々は、イベントカメラとCPRタスクの関係を再考し、生のPoint Cloudを直接ネットワーク入力として活用し、イベントの高時間分解能と固有の空間性を活用する。
PEPNetは、Attentive Bi-directional Long Short-Term Memory (A-Bi-LSTM) による階層構造と明示的な時間的特徴を通して、空間的および暗黙的特徴を抽象化する。
PEPNetは、慎重に設計された軽量な設計を採用することで、単純な計算リソースを備えた、屋内および屋外両方のデータセットに最先端(SOTA)パフォーマンスを提供する。
具体的には、PEPNetは、ランダムスプリットIJRRとM3EDデータセットに対して、それぞれ38%と33%のパフォーマンス改善を実現している。
さらに、軽量設計バージョンであるPEPNet$_{tiny}$は、パラメータの0.5%を使用しながら、SOTAに匹敵する結果を達成している。
関連論文リスト
- EEPNet: Efficient Edge Pixel-based Matching Network for Cross-Modal Dynamic Registration between LiDAR and Camera [6.817117737186402]
自動運転車が複雑な環境の中で軌道を正確に知覚し、分析し、計画するためには、マルチセンサー融合が不可欠である。
画像にLiDAR点雲を登録する現在の手法は、固有の違いと計算オーバーヘッドのために大きな課題に直面している。
我々は、ポイントクラウド投影から得られたモダリティマップを利用して、登録精度を向上させる高度ネットワークであるEEPNetを提案する。
論文 参考訳(メタデータ) (2024-09-28T10:28:28Z) - FAPNet: An Effective Frequency Adaptive Point-based Eye Tracker [0.6554326244334868]
イベントカメラは、視線追跡の領域における従来のカメラに代わるものだ。
既存のイベントベースの視線追跡ネットワークは、イベントにおける重要できめ細かい時間情報を無視する。
本稿では、ポイントクラウドをイベント表現として利用し、視線追跡タスクにおける事象の高時間分解能とスパース特性を利用する。
論文 参考訳(メタデータ) (2024-06-05T12:08:01Z) - Rethinking Efficient and Effective Point-based Networks for Event Camera Classification and Regression: EventMamba [11.400397931501338]
イベントカメラは、最小限の電力を消費しながら、低レイテンシで高ダイナミックレンジで環境光の変化を効率的に検出する。
イベントデータを処理する現在のアプローチでは、フレームベースの表現に変換することが多い。
Point Cloudは3D処理の一般的な表現であり、イベントカメラのスパースと非同期性に適合するのに適している。
提案するEventMambaは,最先端(SOTA)のフレームベース手法と比較しても,競合的な結果が得られる,効率的かつ効果的なPoint Cloudフレームワークである。
論文 参考訳(メタデータ) (2024-05-09T21:47:46Z) - SpikePoint: An Efficient Point-based Spiking Neural Network for Event
Cameras Action Recognition [11.178792888084692]
スパイキングニューラルネットワーク(SNN)は、その顕著な効率性と耐障害性のために注目されている。
本稿では,新しいエンドツーエンドのポイントベースSNNアーキテクチャであるSpikePointを提案する。
SpikePointはスパースイベントクラウドデータの処理に優れ、グローバル機能とローカル機能の両方を効果的に抽出する。
論文 参考訳(メタデータ) (2023-10-11T04:38:21Z) - Robust e-NeRF: NeRF from Sparse & Noisy Events under Non-Uniform Motion [67.15935067326662]
イベントカメラは低電力、低レイテンシ、高時間解像度、高ダイナミックレンジを提供する。
NeRFは効率的かつ効果的なシーン表現の第一候補と見なされている。
本稿では,移動イベントカメラからNeRFを直接かつ堅牢に再構成する新しい手法であるRobust e-NeRFを提案する。
論文 参考訳(メタデータ) (2023-09-15T17:52:08Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - Recurrent Vision Transformers for Object Detection with Event Cameras [62.27246562304705]
本稿では,イベントカメラを用いた物体検出のための新しいバックボーンであるリカレントビジョントランス (RVT) を提案する。
RVTは、イベントベースのオブジェクト検出で最先端のパフォーマンスに到達するために、ゼロからトレーニングすることができる。
私たちの研究は、イベントベースのビジョンを超えた研究に役立ち得る効果的なデザイン選択に、新たな洞察をもたらします。
論文 参考訳(メタデータ) (2022-12-11T20:28:59Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - PIDNet: An Efficient Network for Dynamic Pedestrian Intrusion Detection [22.316826418265666]
移動カメラによって歩行者が関心領域(AoI)を侵入するかどうかを判断する視覚に基づく動的歩行者侵入検知(PID)は,モバイル監視において重要な課題である。
本稿では,この問題を解決するために,新しい,効率的なマルチタスクディープニューラルネットワークPIDNetを提案する。
PIDNetは、移動カメラが捉えたビデオフレームから動的に変化するAoIを正確にセグメンテーションし、生成されたAoI含有領域から歩行者を素早く検出する2つの要因を考慮して設計されている。
論文 参考訳(メタデータ) (2020-09-01T09:34:43Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。