論文の概要: Continuous Event-Line Constraint for Closed-Form Velocity Initialization
- arxiv url: http://arxiv.org/abs/2109.04313v1
- Date: Thu, 9 Sep 2021 14:39:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 14:13:40.577284
- Title: Continuous Event-Line Constraint for Closed-Form Velocity Initialization
- Title(参考訳): 閉形速度初期化のための連続イベントライン制約
- Authors: Peng Xin, Xu Wangting, Yang Jiaqi, Kneip Laurent
- Abstract要約: イベントカメラは、対数輝度レベルの十分な変更に基づいて、非同期かつ独立にイベントをトリガーする。
本稿では,一階カメラのダイナミックスだけでなく,イベントクラスタが与えるラインオブザーバ間の関係を表現するために,一定の速度運動仮定と三焦点形状に依存する連続的なイベントライン制約を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras trigger events asynchronously and independently upon a
sufficient change of the logarithmic brightness level. The neuromorphic sensor
has several advantages over standard cameras including low latency, absence of
motion blur, and high dynamic range. Event cameras are particularly well suited
to sense motion dynamics in agile scenarios. We propose the continuous
event-line constraint, which relies on a constant-velocity motion assumption as
well as trifocal tensor geometry in order to express a relationship between
line observations given by event clusters as well as first-order camera
dynamics. Our core result is a closed-form solver for up-to-scale linear camera
velocity {with known angular velocity}. Nonlinear optimization is adopted to
improve the performance of the algorithm. The feasibility of the approach is
demonstrated through a careful analysis on both simulated and real data.
- Abstract(参考訳): イベントカメラは、対数輝度の十分な変化に応じて、非同期かつ独立にイベントをトリガーする。
ニューロモルフィックセンサーは、低遅延、動きのぼかしの欠如、高ダイナミックレンジなどの標準カメラに対していくつかの利点がある。
イベントカメラは特にアジャイルのシナリオで動きのダイナミクスを感知するのに適しています。
本稿では,イベントクラスタが与える直線観測と一階カメラのダイナミクスの関係を表現するために,定速度運動仮定と三焦点テンソル幾何に依存する連続的なイベントライン制約を提案する。
中心となる結果は, 角速度の既知の線形カメラ速度のためのクローズドフォームソルバである。
非線形最適化はアルゴリズムの性能を向上させるために用いられる。
本手法の有効性はシミュレーションデータと実データの両方について注意深く分析することで実証された。
関連論文リスト
- DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - EVIT: Event-based Visual-Inertial Tracking in Semi-Dense Maps Using Windowed Nonlinear Optimization [19.915476815328294]
イベントカメラは、絶対的な画像強度を統合するのではなく、明るさの変化に反応する興味深い視覚的知覚センサーである。
本報告では, 推定精度を高めるため, 慣性信号の追加を提案する。
本評価では,さまざまな実世界のシーケンスに焦点をあて,異なるレートで実行されるイベントベースの代替手段との比較を行った。
論文 参考訳(メタデータ) (2024-08-02T16:24:55Z) - Tight Fusion of Events and Inertial Measurements for Direct Velocity
Estimation [20.002238735553792]
本研究では,通常のカメラの代わりに動的視覚センサを用いて,一階キネマティクスのレベルで直接視覚-慣性融合を行う新しい手法を提案する。
本研究では, 短時間で高ダイナミックな状況下での速度推定がどのように得られるかを示す。
シミュレーションデータと実データの両方の実験により、提案された密接な事象-慣性融合が連続的かつ信頼性の高い速度推定に繋がることを示した。
論文 参考訳(メタデータ) (2024-01-17T15:56:57Z) - A 5-Point Minimal Solver for Event Camera Relative Motion Estimation [47.45081895021988]
本稿では,直線パラメータと線形カメラ速度予測を推定し,複数の直線を考慮した場合の1つの平均線形速度に融合できる新しい最小5点解法を提案する。
本手法は,既存の閉形式解法が23%から70%しか達成できない線形速度の推定において,連続的に100%の成功率を達成する。
論文 参考訳(メタデータ) (2023-09-29T08:30:18Z) - Minimum Latency Deep Online Video Stabilization [77.68990069996939]
本稿では,オンラインビデオ安定化作業のための新しいカメラパス最適化フレームワークを提案する。
本研究では,近年の市販の高品位深度モーションモデルを用いて動き推定を行い,カメラの軌道を復元する。
我々の手法は、定性的にも量的にも最先端のオンライン手法を大きく上回っている。
論文 参考訳(メタデータ) (2022-12-05T07:37:32Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Globally-Optimal Event Camera Motion Estimation [30.79931004393174]
イベントカメラは、HDR条件でよく機能し、時間分解能の高いバイオインスパイアされたセンサーである。
イベントカメラは、非同期ピクセルレベルの変更を測定し、高度に識別されたフォーマットでそれらを返す。
論文 参考訳(メタデータ) (2022-03-08T08:24:22Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。