論文の概要: Active Event Alignment for Monocular Distance Estimation
- arxiv url: http://arxiv.org/abs/2410.22280v1
- Date: Tue, 29 Oct 2024 17:34:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:40:17.250691
- Title: Active Event Alignment for Monocular Distance Estimation
- Title(参考訳): 単眼距離推定のためのアクティブイベントアライメント
- Authors: Nan Cai, Pia Bideau,
- Abstract要約: イベントカメラは、視覚情報の自然で効率的な表現を提供する。
本稿では,イベントカメラデータからオブジェクトワイド距離を推定するための行動駆動手法を提案する。
- 参考スコア(独自算出の注目度): 2.9189383211046014
- License:
- Abstract: Event cameras provide a natural and data efficient representation of visual information, motivating novel computational strategies towards extracting visual information. Inspired by the biological vision system, we propose a behavior driven approach for object-wise distance estimation from event camera data. This behavior-driven method mimics how biological systems, like the human eye, stabilize their view based on object distance: distant objects require minimal compensatory rotation to stay in focus, while nearby objects demand greater adjustments to maintain alignment. This adaptive strategy leverages natural stabilization behaviors to estimate relative distances effectively. Unlike traditional vision algorithms that estimate depth across the entire image, our approach targets local depth estimation within a specific region of interest. By aligning events within a small region, we estimate the angular velocity required to stabilize the image motion. We demonstrate that, under certain assumptions, the compensatory rotational flow is inversely proportional to the object's distance. The proposed approach achieves new state-of-the-art accuracy in distance estimation - a performance gain of 16% on EVIMO2. EVIMO2 event sequences comprise complex camera motion and substantial variance in depth of static real world scenes.
- Abstract(参考訳): イベントカメラは、視覚情報の自然かつ効率的な表現を提供し、視覚情報の抽出に向けた新しい計算戦略を動機付けている。
生体視覚システムに着想を得て,イベントカメラデータから対象距離を推定する行動駆動手法を提案する。
遠方の物体は焦点を合わせるために最小限の補正回転を必要とし、近くの物体はアライメントを維持するためにより大きな調整を必要とします。
この適応戦略は、自然な安定化挙動を利用して、相対距離を効果的に推定する。
画像全体にわたって深度を推定する従来の視覚アルゴリズムとは異なり、我々のアプローチは特定の領域における局所深度推定を目標としている。
小さな領域内でのイベントの整列により、画像の動きを安定させるのに必要な角速度を推定する。
特定の仮定の下では、補償回転流は物体の距離に逆比例することを示した。
提案手法は距離推定における新しい最先端精度を実現し,EVIMO2の性能は16%向上した。
EVIMO2イベントシーケンスは、複雑なカメラの動きと、静的な現実世界のシーンの深さのかなりのばらつきから構成される。
関連論文リスト
- ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースのビジュアルオドメトリーは、トラッキングとサブプロブレムを並列にマッピングすることを目的としている。
イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - Line-based 6-DoF Object Pose Estimation and Tracking With an Event Camera [19.204896246140155]
イベントカメラは、高いダイナミックレンジ、低レイテンシ、動きのぼけに対するレジリエンスといった顕著な特性を持っている。
イベントカメラを用いた平面オブジェクトや非平面オブジェクトに対するラインベースロバストポーズ推定と追跡手法を提案する。
論文 参考訳(メタデータ) (2024-08-06T14:36:43Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - Generalizing Event-Based Motion Deblurring in Real-World Scenarios [62.995994797897424]
イベントベースの動作遅延は、低レイテンシイベントを活用することで、有望な結果を示している。
本研究では,フレキシブルな入力空間スケールを実現するとともに,時間スケールの異なる動きのぼかしから学習できるスケール対応ネットワークを提案する。
次に,実世界のデータ分布に適合する2段階の自己教師型学習手法を開発した。
論文 参考訳(メタデータ) (2023-08-11T04:27:29Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z) - Maximum Likelihood Speed Estimation of Moving Objects in Video Signals [0.12891210250935145]
ほとんどの現実的なシナリオでは、フレーム化された物体のイメージ平面への投射は、動的変化の影響を受けやすい。
提案手法は,対象物に影響を及ぼす周期的影響を減らし,無視することを目的とした,一連の前処理操作からなる。
ML推定法は、信頼性の高い結果を得るために利用されるような統合された統計ツールである。
論文 参考訳(メタデータ) (2020-03-10T17:56:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。