論文の概要: Unleashing the Temporal Potential of Stereo Event Cameras for Continuous-Time 3D Object Detection
- arxiv url: http://arxiv.org/abs/2508.02288v1
- Date: Mon, 04 Aug 2025 10:57:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.299668
- Title: Unleashing the Temporal Potential of Stereo Event Cameras for Continuous-Time 3D Object Detection
- Title(参考訳): 連続3次元物体検出のためのステレオイベントカメラの時間的ポテンシャルの解放
- Authors: Jae-Young Kang, Hoonhee Cho, Kuk-Jin Yoon,
- Abstract要約: イベントカメラは、動きを継続的に捉えて解決策を提供する。
本稿では,イベントカメラのみに依存する新しいステレオ3Dオブジェクト検出フレームワークを提案する。
実験により,本手法は動的環境における従来の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 44.479946706395694
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: 3D object detection is essential for autonomous systems, enabling precise localization and dimension estimation. While LiDAR and RGB cameras are widely used, their fixed frame rates create perception gaps in high-speed scenarios. Event cameras, with their asynchronous nature and high temporal resolution, offer a solution by capturing motion continuously. The recent approach, which integrates event cameras with conventional sensors for continuous-time detection, struggles in fast-motion scenarios due to its dependency on synchronized sensors. We propose a novel stereo 3D object detection framework that relies solely on event cameras, eliminating the need for conventional 3D sensors. To compensate for the lack of semantic and geometric information in event data, we introduce a dual filter mechanism that extracts both. Additionally, we enhance regression by aligning bounding boxes with object-centric information. Experiments show that our method outperforms prior approaches in dynamic environments, demonstrating the potential of event cameras for robust, continuous-time 3D perception. The code is available at https://github.com/mickeykang16/Ev-Stereo3D.
- Abstract(参考訳): 3Dオブジェクト検出は自律システムにとって不可欠であり、正確な位置決めと次元推定を可能にする。
LiDARとRGBカメラは広く使われているが、その固定フレームレートは高速シナリオにおいて知覚ギャップを生じさせる。
イベントカメラは、非同期性と高時間分解能を備え、動きを連続的にキャプチャすることで解決策を提供する。
イベントカメラを従来のセンサと統合して連続的な検出を行うこのアプローチは、同期センサーに依存しているため、速い動きのシナリオに苦慮している。
本稿では,イベントカメラのみに依存した新しいステレオ3Dオブジェクト検出フレームワークを提案する。
事象データにおける意味的情報や幾何学的情報の欠如を補うために,その両方を抽出する二重フィルタ機構を導入する。
さらに、リグレッションをオブジェクト中心の情報とバウンディングボックスをアライメントすることで強化する。
実験により,本手法は動的環境における従来の手法よりも優れており,堅牢で連続的な3次元知覚のためのイベントカメラの可能性を示している。
コードはhttps://github.com/mickeykang16/Ev-Stereo3Dで公開されている。
関連論文リスト
- TAPIP3D: Tracking Any Point in Persistent 3D Geometry [25.357437591411347]
本稿では,モノクロおよびRGB-Dビデオにおける長期3次元点追跡の新しい手法であるTAPIP3Dを紹介する。
TAPIP3Dは、ビデオをカメラ安定化機能クラウドとして表現し、深度とカメラモーション情報を活用する。
我々の3D中心の定式化は既存の3D点追跡法よりも性能を著しく向上させる。
論文 参考訳(メタデータ) (2025-04-20T19:09:43Z) - Ev-3DOD: Pushing the Temporal Boundaries of 3D Object Detection with Event Cameras [45.01523776589879]
非同期イベントカメラを初めて3次元オブジェクト検出に導入する。
我々はその高時間分解能と低帯域幅を活用して高速な3Dオブジェクト検出を実現する。
イベントベース3Dオブジェクト検出データセットであるDSEC-3DODを導入する。
論文 参考訳(メタデータ) (2025-02-26T23:51:25Z) - EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [72.60992807941885]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - EventEgo3D: 3D Human Motion Capture from Egocentric Event Streams [59.77837807004765]
本稿では,魚眼レンズを用いた一眼一眼レフカメラによる3次元モーションキャプチャーという新たな課題を紹介する。
イベントストリームは、時間分解能が高く、高速な人間の動作下での3次元モーションキャプチャーと、急速に変化する照明のための信頼性の高い手がかりを提供する。
我々のEE3Dは、リアルタイム3Dポーズ更新レートを140Hzでサポートしながら、既存のソリューションと比較して堅牢性と優れた3D精度を示す。
論文 参考訳(メタデータ) (2024-04-12T17:59:47Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - Virtually increasing the measurement frequency of LIDAR sensor utilizing
a single RGB camera [1.3706331473063877]
本研究は、モノカメラを用いてLIDARのフレームレートを実質的に向上させることを示唆している。
実測値と精度および類似性の観点から,大規模な公開データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-10T11:43:35Z) - Stereo Hybrid Event-Frame (SHEF) Cameras for 3D Perception [17.585862399941544]
イベントカメラは、各ピクセルの明るさ変化を微妙な時間分解能で独立に報告する際、制限に対処する。
統合型複合イベントフレームセンサー(DAVIS)が利用可能だが、データの品質はそのようなカメラの回路製造におけるピクセルレベルでの結合によって損なわれる。
本稿では,高品質なイベントカメラと純粋なフレームカメラを分離したセンサモダリティを提供するステレオハイブリッドイベントフレーム(SHEF)カメラシステムを提案する。
論文 参考訳(メタデータ) (2021-10-11T04:03:36Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Event-based Stereo Visual Odometry [42.77238738150496]
ステレオ・イベント・ベースのカメラ・リグが取得したデータから視覚計測の問題に対する解決策を提案する。
我々は,シンプルかつ効率的な表現を用いて,ステレオイベントベースのデータの時間的一貫性を最大化する。
論文 参考訳(メタデータ) (2020-07-30T15:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。