論文の概要: Fast Event-based Optical Flow Estimation by Triplet Matching
- arxiv url: http://arxiv.org/abs/2212.12218v1
- Date: Fri, 23 Dec 2022 09:12:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 17:25:04.159145
- Title: Fast Event-based Optical Flow Estimation by Triplet Matching
- Title(参考訳): トリプルトマッチングによる高速イベントベース光フロー推定
- Authors: Shintaro Shiba and Yoshimitsu Aoki and Guillermo Gallego
- Abstract要約: イベントカメラは、従来のカメラ(低レイテンシ、高ダイナミックレンジ、低電力など)よりも利点がある。
イベントのパケットを扱う光フロー推定法は、正確性のために速度をトレードオフする。
本稿では,三重項マッチングに基づく新しい光フロー推定手法を提案する。
- 参考スコア(独自算出の注目度): 13.298845944779108
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras are novel bio-inspired sensors that offer advantages over
traditional cameras (low latency, high dynamic range, low power, etc.). Optical
flow estimation methods that work on packets of events trade off speed for
accuracy, while event-by-event (incremental) methods have strong assumptions
and have not been tested on common benchmarks that quantify progress in the
field. Towards applications on resource-constrained devices, it is important to
develop optical flow algorithms that are fast, light-weight and accurate. This
work leverages insights from neuroscience, and proposes a novel optical flow
estimation scheme based on triplet matching. The experiments on publicly
available benchmarks demonstrate its capability to handle complex scenes with
comparable results as prior packet-based algorithms. In addition, the proposed
method achieves the fastest execution time (> 10 kHz) on standard CPUs as it
requires only three events in estimation. We hope that our research opens the
door to real-time, incremental motion estimation methods and applications in
real-world scenarios.
- Abstract(参考訳): イベントカメラは、従来のカメラ(低レイテンシ、高ダイナミックレンジ、低電力など)よりも優れたバイオインスパイアされた新しいセンサーである。
イベントのパケットを扱う光フロー推定法は、精度のために速度をトレードオフするが、event-by-event (incremental) 法は強い仮定を持ち、フィールドの進捗を定量化する共通のベンチマークではテストされていない。
資源制約デバイスへの応用に向けて、高速で軽量で高精度な光フローアルゴリズムを開発することが重要である。
本研究は神経科学の知見を活用し,三重項マッチングに基づく新しい光フロー推定法を提案する。
公開ベンチマークにおける実験は、パケットベースのアルゴリズムと同等の結果を持つ複雑なシーンを扱う能力を示している。
さらに,提案手法は,推定に3つのイベントしか必要とせず,標準cpu上での最速実行時間(10khz以下)を実現する。
我々は,実世界のシナリオにおけるリアルタイム・インクリメンタルな動き推定手法と応用への扉を開くことを願っている。
関連論文リスト
- Characterization of point-source transient events with a rolling-shutter compressed sensing system [0.0]
ポイントソースの過渡イベント(PSTE)は、イメージングシステムにいくつかの課題をもたらす。
これらの要件を満たす従来のイメージングシステムは、価格、サイズ、重量、消費電力、データ帯域幅の点で費用がかかる。
画像システムのローリングシャッター読み出しに適応した新しい圧縮センシングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-08-29T19:22:37Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - Taming Contrast Maximization for Learning Sequential, Low-latency,
Event-based Optical Flow [18.335337530059867]
イベントカメラは、複雑なコンピュータビジョン問題に対する低レイテンシで低消費電力のソリューションのための新しい道を開くことで、大きな注目を集めている。
これらのソリューションをアンロックするには、イベントデータのユニークな性質を活用するアルゴリズムを開発する必要がある。
本研究では,イベントベース光フロー推定のための自己教師付き学習パイプラインを提案する。
論文 参考訳(メタデータ) (2023-03-09T12:37:33Z) - Learning Dense and Continuous Optical Flow from an Event Camera [28.77846425802558]
DAVISのようなイベントカメラは、高時間分解能イベントと低フレームレートの強度イメージを同時に出力することができる。
既存の光学フロー推定法のほとんどは、2つの連続した画像フレームに基づいており、固定時間間隔でのみ離散フローを推定できる。
本稿では,イベントストリームを持つ単一画像から,深層学習に基づく高密度かつ連続的な光フロー推定フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-16T17:53:18Z) - Correlating sparse sensing for large-scale traffic speed estimation: A
Laplacian-enhanced low-rank tensor kriging approach [76.45949280328838]
本稿では,Laplacian enhanced Low-rank tensor (LETC) フレームワークを提案する。
次に,提案したモデルをネットワークワイド・クリグにスケールアップするために,複数の有効な数値手法を用いて効率的な解アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-10-21T07:25:57Z) - hARMS: A Hardware Acceleration Architecture for Real-Time Event-Based
Optical Flow [0.0]
イベントベースの視覚センサは、視覚シーンの変化に基づいて、時間分解能の高い非同期イベントストリームを生成する。
イベントデータから光の流れを計算するための既存の解は、開口問題により運動の真の方向を捉えることができない。
本稿では,低消費電力な組込みプラットフォーム上での真の流れのリアルタイム計算を可能にするfARMSアルゴリズムのハードウェア実現について述べる。
論文 参考訳(メタデータ) (2021-12-13T16:27:17Z) - Event-Based high-speed low-latency fiducial marker tracking [15.052022635853799]
本稿では,リアルタイム,低レイテンシ,自由度6自由度ポーズ推定のためのエンドツーエンドパイプラインを提案する。
イベントベースのセンサを高速に利用して空間変換を直接改善する。
このアプローチでは,CPUリソースのみに依存しながら,最大156kHzのレートでポーズ推定を行うことができる。
論文 参考訳(メタデータ) (2021-10-12T08:34:31Z) - SCFlow: Optical Flow Estimation for Spiking Camera [50.770803466875364]
スパイキングカメラは、特に高速シーンのモーション推定において、現実の応用において大きな可能性を秘めている。
光フロー推定は画像ベースおよびイベントベースの視覚において顕著な成功を収めているが、既存の手法はスパイクカメラからのスパイクストリームに直接適用することはできない。
本稿では、スパイキングカメラのための光フロー推定のための新しいディープラーニングパイプラインSCFlowについて述べる。
論文 参考訳(メタデータ) (2021-10-08T06:16:45Z) - Dense Optical Flow from Event Cameras [55.79329250951028]
本稿では,イベントカメラからの高密度光フロー推定に特徴相関と逐次処理を導入することを提案する。
提案手法は、高密度光流を計算し、MVSEC上での終点誤差を23%削減する。
論文 参考訳(メタデータ) (2021-08-24T07:39:08Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。