論文の概要: High Speed Event Camera TRacking
- arxiv url: http://arxiv.org/abs/2010.02771v2
- Date: Tue, 13 Oct 2020 11:15:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 08:00:25.395607
- Title: High Speed Event Camera TRacking
- Title(参考訳): 高速イベントカメラのトラック化
- Authors: William Chamorro, Juan Andrade-Cetto, Joan Sol\`a
- Abstract要約: イベントカメラは、マイクロ秒の順番に反応時間を持つバイオインスパイアされたセンサーである。
本稿では,25.8g以上の速さで6自由度運動を10kHzで推定できる超高速追従アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 3.8029070240258678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras are bioinspired sensors with reaction times in the order of
microseconds. This property makes them appealing for use in highly-dynamic
computer vision applications. In this work,we explore the limits of this
sensing technology and present an ultra-fast tracking algorithm able to
estimate six-degree-of-freedom motion with dynamics over 25.8 g, at a
throughput of 10 kHz,processing over a million events per second. Our method is
capable of tracking either camera motion or the motion of an object in front of
it, using an error-state Kalman filter formulated in a Lie-theoretic sense. The
method includes a robust mechanism for the matching of events with projected
line segments with very fast outlier rejection. Meticulous treatment of sparse
matrices is applied to achieve real-time performance. Different motion models
of varying complexity are considered for the sake of comparison and performance
analysis
- Abstract(参考訳): イベントカメラはバイオインスパイアされたセンサーで、反応時間はマイクロ秒単位である。
この特性は、高ダイナミックなコンピュータビジョンアプリケーションでの使用をアピールする。
本研究では,このセンシング技術の限界を探究し,25.8g以上のダイナミックスを持つ6自由度動作を10khzのスループットで推定し,毎秒100万イベントを処理可能な超高速トラッキングアルゴリズムを提案する。
本手法は,Lie理論で定式化された誤差状態カルマンフィルタを用いて,前方の物体のカメラの動きや動きを追跡することができる。
この手法は、非常に高速な外れ値拒絶を伴う投影線セグメントとイベントのマッチングのための堅牢なメカニズムを含む。
スパース行列の微妙な処理をリアルタイムに行う。
比較と性能解析のために、異なる複雑さの異なる運動モデルを考える
関連論文リスト
- Motion Segmentation for Neuromorphic Aerial Surveillance [42.04157319642197]
イベントカメラは優れた時間分解能、優れたダイナミックレンジ、最小限の電力要件を提供する。
固定間隔で冗長な情報をキャプチャする従来のフレームベースのセンサーとは異なり、イベントカメラは画素レベルの明るさ変化を非同期に記録する。
本稿では,イベントデータと光フロー情報の両方に自己監督型視覚変換器を利用する動き分割手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T04:36:13Z) - Motion-adaptive Separable Collaborative Filters for Blind Motion Deblurring [71.60457491155451]
様々な動きによって生じる画像のぼかしを除去することは、難しい問題である。
本研究では,動き適応型分離型協調フィルタと呼ばれる実世界のデブロアリングフィルタモデルを提案する。
本手法は,実世界の動きのぼかし除去に有効な解法を提供し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-04-19T19:44:24Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - Retrospective Motion Correction in Gradient Echo MRI by Explicit Motion
Estimation Using Deep CNNs [0.0]
深部畳み込み神経回路網(深部CNN)を用いた動きアーチファクトの補正手法を提案する。
我々は、Deep CNNを用いて、より複雑な運動場に剛性運動補償の概念を一般化できることを示した。
論文 参考訳(メタデータ) (2023-03-30T09:16:13Z) - Fast Online and Relational Tracking [5.868852957948178]
ほとんどのアルゴリズムでは、カメラの動きは無視可能であると考えられており、これは必ずしも真実ではないという強い仮定であり、IDスイッチやターゲットのミスマッチにつながる。
本稿では,カメラの動きを計測し,その効果を除去する手法を提案する。
提案アルゴリズムはMOT17とMOT20のデータセットを用いて評価し,MOT17の最先端性能とMOT20の同等結果を達成する。
論文 参考訳(メタデータ) (2022-08-07T07:12:33Z) - PUCK: Parallel Surface and Convolution-kernel Tracking for Event-Based
Cameras [4.110120522045467]
イベントカメラは、動的環境における高速な視覚センシングを保証できるが、ロボットのエゴモーションによって引き起こされる高いデータ速度に追従できる追跡アルゴリズムを必要とする。
本稿では,EROS(Exponential Reduced Ordinal Surface)データ表現を利用してイベント・バイ・イベント処理とトラッキングを分離する新しいトラッキング手法を提案する。
エアホッケーパックが表面を滑り落ちるのをトラッキングするタスクを提案し、将来はiCubロボットを正確に時間通りに目標に到達させることが目的である。
論文 参考訳(メタデータ) (2022-05-16T13:23:52Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - Fast Motion Understanding with Spatiotemporal Neural Networks and
Dynamic Vision Sensors [99.94079901071163]
本稿では,高速な動きを推論するための動的視覚センサ(DVS)システムを提案する。
ロボットが15m/s以上の速度で接近する小さな物体に反応するケースを考察する。
我々は,23.4m/sで24.73degの誤差を$theta$,18.4mmの平均離散半径予測誤差,衝突予測誤差に対する25.03%の中央値で移動した玩具ダートについて,本システムの結果を強調した。
論文 参考訳(メタデータ) (2020-11-18T17:55:07Z) - 0-MMS: Zero-Shot Multi-Motion Segmentation With A Monocular Event Camera [13.39518293550118]
本稿では,ボトムアップ機能トラッキングとトップダウン動作補償を組み合わせたモノラルなマルチモーションセグメンテーション手法を提案する。
時間間隔内でのイベントを用いて、本手法はシーンを分割とマージによって複数の動作に分割する。
このアプローチは、EV-IMO、EED、MODデータセットから、挑戦的な現実シナリオと合成シナリオの両方で評価された。
論文 参考訳(メタデータ) (2020-06-11T02:34:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。