論文の概要: Real-time 6-DoF Pose Estimation by an Event-based Camera using Active
LED Markers
- arxiv url: http://arxiv.org/abs/2310.16618v1
- Date: Wed, 25 Oct 2023 13:14:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 14:43:04.489791
- Title: Real-time 6-DoF Pose Estimation by an Event-based Camera using Active
LED Markers
- Title(参考訳): アクティブLEDマーカーを用いたイベントベースカメラによるリアルタイム6-DoF計測
- Authors: Gerald Ebmer, Adam Loch, Minh Nhat Vu, Germain Haessig, Roberto Mecca,
Markus Vincze, Christian Hartl-Nesic, and Andreas Kugi
- Abstract要約: 本稿では,能動LEDマーカー(ALM)を用いたイベントベースのポーズ推定システムを提案する。
提案アルゴリズムは、SI3kilo Hertzの出力速度を維持しながら、SI0.5ミリ秒未満のレイテンシでリアルタイムに動作可能である。
- 参考スコア(独自算出の注目度): 12.932177576177281
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Real-time applications for autonomous operations depend largely on fast and
robust vision-based localization systems. Since image processing tasks require
processing large amounts of data, the computational resources often limit the
performance of other processes. To overcome this limitation, traditional
marker-based localization systems are widely used since they are easy to
integrate and achieve reliable accuracy. However, classical marker-based
localization systems significantly depend on standard cameras with low frame
rates, which often lack accuracy due to motion blur. In contrast, event-based
cameras provide high temporal resolution and a high dynamic range, which can be
utilized for fast localization tasks, even under challenging visual conditions.
This paper proposes a simple but effective event-based pose estimation system
using active LED markers (ALM) for fast and accurate pose estimation. The
proposed algorithm is able to operate in real time with a latency below
\SI{0.5}{\milli\second} while maintaining output rates of \SI{3}{\kilo \hertz}.
Experimental results in static and dynamic scenarios are presented to
demonstrate the performance of the proposed approach in terms of computational
speed and absolute accuracy, using the OptiTrack system as the basis for
measurement.
- Abstract(参考訳): 自律運用のためのリアルタイムアプリケーションは、主に高速で堅牢なビジョンベースのローカライズシステムに依存している。
画像処理タスクは大量のデータを処理する必要があるため、計算資源は他のプロセスの性能を制限することが多い。
この制限を克服するために、従来のマーカーベースのローカライズシステムは、統合が容易で信頼性の高いため、広く使われている。
しかし、従来のマーカーベースのローカライズシステムは、フレームレートの低い標準カメラに大きく依存しており、動きのぼやけによる精度が欠落することが多い。
対照的に、イベントベースのカメラは高時間分解能と高ダイナミックレンジを提供し、困難な視覚条件下であっても高速なローカライゼーションタスクに使用できる。
本稿では,能動LEDマーカー(ALM)を用いた簡易かつ効果的なポーズ推定システムを提案する。
提案アルゴリズムは,SI{3}{\kilo \hertz} の出力率を維持しながら,SI{0.5}{\milli\second} 以下のレイテンシでリアルタイムに動作可能である。
静的および動的シナリオにおける実験結果は, OptiTrackシステムを用いて, 計算速度と絶対精度の観点から, 提案手法の性能を実証するために提示される。
関連論文リスト
- ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースのビジュアルオドメトリーは、トラッキングとサブプロブレムを並列にマッピングすることを目的としている。
イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - Generalizing Event-Based Motion Deblurring in Real-World Scenarios [62.995994797897424]
イベントベースの動作遅延は、低レイテンシイベントを活用することで、有望な結果を示している。
本研究では,フレキシブルな入力空間スケールを実現するとともに,時間スケールの異なる動きのぼかしから学習できるスケール対応ネットワークを提案する。
次に,実世界のデータ分布に適合する2段階の自己教師型学習手法を開発した。
論文 参考訳(メタデータ) (2023-08-11T04:27:29Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - Fast Event-based Optical Flow Estimation by Triplet Matching [13.298845944779108]
イベントカメラは、従来のカメラ(低レイテンシ、高ダイナミックレンジ、低電力など)よりも利点がある。
イベントのパケットを扱う光フロー推定法は、正確性のために速度をトレードオフする。
本稿では,三重項マッチングに基づく新しい光フロー推定手法を提案する。
論文 参考訳(メタデータ) (2022-12-23T09:12:16Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Event-Based high-speed low-latency fiducial marker tracking [15.052022635853799]
本稿では,リアルタイム,低レイテンシ,自由度6自由度ポーズ推定のためのエンドツーエンドパイプラインを提案する。
イベントベースのセンサを高速に利用して空間変換を直接改善する。
このアプローチでは,CPUリソースのみに依存しながら,最大156kHzのレートでポーズ推定を行うことができる。
論文 参考訳(メタデータ) (2021-10-12T08:34:31Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z) - Event-based Stereo Visual Odometry [42.77238738150496]
ステレオ・イベント・ベースのカメラ・リグが取得したデータから視覚計測の問題に対する解決策を提案する。
我々は,シンプルかつ効率的な表現を用いて,ステレオイベントベースのデータの時間的一貫性を最大化する。
論文 参考訳(メタデータ) (2020-07-30T15:53:28Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。