論文の概要: Ego-motion Estimation Based on Fusion of Images and Events
- arxiv url: http://arxiv.org/abs/2207.05588v1
- Date: Tue, 12 Jul 2022 15:10:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 15:01:49.303656
- Title: Ego-motion Estimation Based on Fusion of Images and Events
- Title(参考訳): 画像と事象の融合に基づくエゴモーション推定
- Authors: Liren Yang
- Abstract要約: イベントカメラは、イベントストリームを出力するバイオインスパイアされた新しい視覚センサーである。
EASと呼ばれる新しいデータ融合アルゴリズムを提案し、イベントストリームと従来の強度画像とを融合する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event camera is a novel bio-inspired vision sensor that outputs event stream.
In this paper, we propose a novel data fusion algorithm called EAS to fuse
conventional intensity images with the event stream. The fusion result is
applied to some ego-motion estimation frameworks, and is evaluated on a public
dataset acquired in dim scenes. In our 3-DoF rotation estimation framework, EAS
achieves the highest estimation accuracy among intensity images and
representations of events including event slice, TS and SITS. Compared with
original images, EAS reduces the average APE by 69%, benefiting from the
inclusion of more features for tracking. The result shows that our algorithm
effectively leverages the high dynamic range of event cameras to improve the
performance of the ego-motion estimation framework based on optical flow
tracking in difficult illumination conditions.
- Abstract(参考訳): イベントカメラは、イベントストリームを出力するバイオインスパイアされた新しい視覚センサーである。
本稿では,従来の強度画像とイベントストリームを融合させるEASと呼ばれる新しいデータ融合アルゴリズムを提案する。
融合結果はいくつかのエゴモーション推定フレームワークに適用され、dimシーンで取得した公開データセット上で評価される。
当社の3DoF回転推定フレームワークでは,イベントスライス,TS,SITSなどのイベントの強度画像と表現の最も高い推定精度を実現している。
オリジナルの画像と比較すると、EASはトラッキングにより多くの機能を含めることで、平均的なAPEを69%削減する。
その結果,このアルゴリズムは高ダイナミックレンジのイベントカメラを効果的に活用し,難照度条件下での光フロートラッキングに基づくエゴモーション推定フレームワークの性能向上を図っている。
関連論文リスト
- EVIT: Event-based Visual-Inertial Tracking in Semi-Dense Maps Using Windowed Nonlinear Optimization [19.915476815328294]
イベントカメラは、絶対的な画像強度を統合するのではなく、明るさの変化に反応する興味深い視覚的知覚センサーである。
本報告では, 推定精度を高めるため, 慣性信号の追加を提案する。
本評価では,さまざまな実世界のシーケンスに焦点をあて,異なるレートで実行されるイベントベースの代替手段との比較を行った。
論文 参考訳(メタデータ) (2024-08-02T16:24:55Z) - Event-assisted Low-Light Video Object Segmentation [47.28027938310957]
イベントカメラは、このような低照度条件下でオブジェクトの可視性を高め、VOSメソッドを支援することを約束する。
本稿では、イベントカメラデータを利用してセグメンテーション精度を向上させる、低照度VOSに適した先駆的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-02T13:41:22Z) - Self-supervised Event-based Monocular Depth Estimation using Cross-modal
Consistency [18.288912105820167]
EMoDepth という自己教師型イベントベース単眼深度推定フレームワークを提案する。
EMoDepthは、ピクセル座標内のイベントに整合した強度フレームからのクロスモーダル一貫性を使用して、トレーニングプロセスを制約する。
推論では、単分子深度予測にはイベントのみを使用する。
論文 参考訳(メタデータ) (2024-01-14T07:16:52Z) - EventAid: Benchmarking Event-aided Image/Video Enhancement Algorithms
with Real-captured Hybrid Dataset [55.12137324648253]
イベントカメラは、ダイナミックレンジとセンサーの速度で従来のフレームベースの撮像センサーよりも有利な、新興のイメージング技術である。
本稿では,5つのイベント支援画像と映像強調タスクに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-13T15:42:04Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - An Event-based Algorithm for Simultaneous 6-DOF Camera Pose Tracking and Mapping [0.0]
イベントカメラは、各画素位置の強度の変化に基づいて、非同期にコンパクトなビジュアルデータを出力することができる。
我々は、その機能を評価するために、イベントのみのパイプラインの慣性バージョンを提案する。
地図推定が信頼できるならば、同等あるいはより正確な結果が得られることを示す。
論文 参考訳(メタデータ) (2023-01-02T12:16:18Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Single Image Optical Flow Estimation with an Event Camera [38.92408855196647]
イベントカメラはバイオインスパイアされたセンサーで、マイクロ秒解像度の強度変化を報告している。
本稿では,単一画像(潜在的にぼやけた)とイベントに基づく光フロー推定手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T11:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。