論文の概要: On the Benefits of Visual Stabilization for Frame- and Event-based Perception
- arxiv url: http://arxiv.org/abs/2408.15602v1
- Date: Wed, 28 Aug 2024 07:49:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 16:53:03.845367
- Title: On the Benefits of Visual Stabilization for Frame- and Event-based Perception
- Title(参考訳): フレームとイベントに基づく知覚における視覚的安定化の利点について
- Authors: Juan Pablo Rodriguez-Gomez, Jose Ramiro Martinez-de Dios, Anibal Ollero, Guillermo Gallego,
- Abstract要約: 本稿では,カメラの回転運動を補償する処理ベース安定化手法を提案する。
特徴追跡とカメラのエゴモーションの翻訳成分の推定という,2つの認識応用における安定化の利点を評価する。
安定度は、それぞれ27.37%と34.82%で特徴追跡とカメラのエゴモーション推定の精度を向上できることを示した。
- 参考スコア(独自算出の注目度): 9.603053472399047
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Vision-based perception systems are typically exposed to large orientation changes in different robot applications. In such conditions, their performance might be compromised due to the inherent complexity of processing data captured under challenging motion. Integration of mechanical stabilizers to compensate for the camera rotation is not always possible due to the robot payload constraints. This paper presents a processing-based stabilization approach to compensate the camera's rotational motion both on events and on frames (i.e., images). Assuming that the camera's attitude is available, we evaluate the benefits of stabilization in two perception applications: feature tracking and estimating the translation component of the camera's ego-motion. The validation is performed using synthetic data and sequences from well-known event-based vision datasets. The experiments unveil that stabilization can improve feature tracking and camera ego-motion estimation accuracy in 27.37% and 34.82%, respectively. Concurrently, stabilization can reduce the processing time of computing the camera's linear velocity by at least 25%. Code is available at https://github.com/tub-rip/visual_stabilization
- Abstract(参考訳): 視覚に基づく知覚システムは、通常、異なるロボットアプリケーションにおいて大きな向きの変化にさらされる。
このような条件下では、その性能は、挑戦的な動作下でキャプチャされたデータ処理の本質的に複雑なため、損なわれる可能性がある。
ロボットペイロードの制約により、カメラ回転を補うための機械的安定化器の統合は必ずしも不可能である。
本稿では,イベントとフレーム(画像)の両方において,カメラの回転運動を補償する処理ベースの安定化手法を提案する。
カメラの姿勢が利用できると仮定すると、特徴追跡と、カメラのエゴモーションの翻訳成分を推定する2つの認識応用において、安定化の利点を評価する。
バリデーションは、よく知られたイベントベースの視覚データセットの合成データとシーケンスを使用して実行される。
実験では、安定化により、それぞれ27.37%と34.82%で、特徴追跡とカメラの自走推定精度が向上することを示した。
同時に、安定化により、カメラの線形速度を計算する処理時間を少なくとも25%削減することができる。
コードはhttps://github.com/tub-rip/visual_stabilizationで入手できる。
関連論文リスト
- CamI2V: Camera-Controlled Image-to-Video Diffusion Model [11.762824216082508]
本稿では,明示的な物理的制約をモデル設計に統合する必要性を強調した。
ノイズ条件の新たな視点から,すべてのクロスフレーム関係をモデル化するためのエピポーラアテンションを提案する。
領域外画像への強い一般化を維持しつつ、RealEstate10K上でのカメラ制御性を25.5%向上させる。
論文 参考訳(メタデータ) (2024-10-21T12:36:27Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - Minimum Latency Deep Online Video Stabilization [77.68990069996939]
本稿では,オンラインビデオ安定化作業のための新しいカメラパス最適化フレームワークを提案する。
本研究では,近年の市販の高品位深度モーションモデルを用いて動き推定を行い,カメラの軌道を復元する。
我々の手法は、定性的にも量的にも最先端のオンライン手法を大きく上回っている。
論文 参考訳(メタデータ) (2022-12-05T07:37:32Z) - GPU-accelerated SIFT-aided source identification of stabilized videos [63.084540168532065]
我々は、安定化フレームインバージョンフレームワークにおけるグラフィクス処理ユニット(GPU)の並列化機能を利用する。
我々はSIFT機能を活用することを提案する。
カメラのモーメントを推定し 1%の確率で 時間セグメントを識別します
実験により,提案手法の有効性を確認し,必要な計算時間を短縮し,情報源の同定精度を向上させる。
論文 参考訳(メタデータ) (2022-07-29T07:01:31Z) - PUCK: Parallel Surface and Convolution-kernel Tracking for Event-Based
Cameras [4.110120522045467]
イベントカメラは、動的環境における高速な視覚センシングを保証できるが、ロボットのエゴモーションによって引き起こされる高いデータ速度に追従できる追跡アルゴリズムを必要とする。
本稿では,EROS(Exponential Reduced Ordinal Surface)データ表現を利用してイベント・バイ・イベント処理とトラッキングを分離する新しいトラッキング手法を提案する。
エアホッケーパックが表面を滑り落ちるのをトラッキングするタスクを提案し、将来はiCubロボットを正確に時間通りに目標に到達させることが目的である。
論文 参考訳(メタデータ) (2022-05-16T13:23:52Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Self-Supervised Real-time Video Stabilization [100.00816752529045]
本稿では,リアルタイムビデオ安定化手法を提案する。
この動画は、まるでジンバルでリアルタイムで安定しているかのように、不安定な動画に変換します。
論文 参考訳(メタデータ) (2021-11-10T22:49:56Z) - Out-of-boundary View Synthesis Towards Full-Frame Video Stabilization [82.56853587380168]
ウォーピングベースのビデオ安定器は、各ピクセルの変位とワープフレームを不安定なものから制限することにより、カメラの軌道を円滑にする。
OVSは、既存のワーピングベースの安定化器にプラグアンドプレイモジュールとして統合することができ、安定した結果の収穫率を大幅に改善することができる。
論文 参考訳(メタデータ) (2021-08-20T08:07:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。