論文の概要: Artificial Microsaccade Compensation: Stable Vision for an Ornithopter
- arxiv url: http://arxiv.org/abs/2512.03995v1
- Date: Wed, 03 Dec 2025 17:24:02 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:00:12.422026
- Title: Artificial Microsaccade Compensation: Stable Vision for an Ornithopter
- Title(参考訳): 人工的マイクロサケード補償 : オルニトプターの安定ビジョン
- Authors: Levi Burner, Guido de Croon, Yiannis Aloimonos,
- Abstract要約: 尾の無いオルニトプターで撮影した映像を安定化させる「芸術的マイクロサックド補償」。
提案手法は,SO(3)で表される3次元回転を最適化することにより,画像強度の変化を最小限に抑える。
固定された視方向、時にはササードを保持するように適応すると、フレーム間の動きを劇的に減らすことができる。
- 参考スコア(独自算出の注目度): 17.362280777359498
- License:
- Abstract: Animals with foveated vision, including humans, experience microsaccades, small, rapid eye movements that they are not aware of. Inspired by this phenomenon, we develop a method for "Artificial Microsaccade Compensation". It can stabilize video captured by a tailless ornithopter that has resisted attempts to use camera-based sensing because it shakes at 12-20 Hz. Our approach minimizes changes in image intensity by optimizing over 3D rotation represented in SO(3). This results in a stabilized video, computed in real time, suitable for human viewing, and free from distortion. When adapted to hold a fixed viewing orientation, up to occasional saccades, it can dramatically reduce inter-frame motion while also benefiting from an efficient recursive update. When compared to Adobe Premier Pro's warp stabilizer, which is widely regarded as the best commercial video stabilization software available, our method achieves higher quality results while also running in real time.
- Abstract(参考訳): 人間を含む先天的な視力を持つ動物は、意識していない小さな目の動きを経験する。
この現象に触発されて,我々は「芸術的マイクロサックド補償」の方法を開発した。
尾のないオルニトプターが撮影したビデオは、12-20Hzで揺れるので、カメラによるセンシングに抵抗している。
提案手法は,SO(3)で表される3次元回転を最適化することにより,画像強度の変化を最小限に抑える。
これにより、リアルタイムに計算され、人間の視界に適した、歪みのない安定したビデオが得られる。
時々ササードに固定された視野方向を保持するように適応すると、フレーム間の動きを劇的に減らし、効率的な再帰的更新の恩恵を受けることができる。
また,Adobe Premier Proのワープ・スタビライザーは,最も優れた商用ビデオ安定化ソフトウェアと見なされているが,本手法はリアルタイムに動作しながら高品質な結果が得られる。
関連論文リスト
- GaVS: 3D-Grounded Video Stabilization via Temporally-Consistent Local Reconstruction and Rendering [54.489285024494855]
ビデオの安定化は、元のユーザの動きの意図を保ちながら、望ましくないシャキネスを除去するので、ビデオ処理に欠かせない。
既存のアプローチは、運用するドメインによって、ユーザエクスペリエンスを低下させるいくつかの問題に悩まされます。
ビデオの安定化を時間的に一貫性のある局所的再構成とレンダリングのパラダイムとして再構成する,新しい3Dグラウンドアプローチである textbfGaVS を紹介する。
論文 参考訳(メタデータ) (2025-06-30T15:24:27Z) - On the Benefits of Visual Stabilization for Frame- and Event-based Perception [9.603053472399047]
本稿では,カメラの回転運動を補償する処理ベース安定化手法を提案する。
特徴追跡とカメラのエゴモーションの翻訳成分の推定という,2つの認識応用における安定化の利点を評価する。
安定度は、それぞれ27.37%と34.82%で特徴追跡とカメラのエゴモーション推定の精度を向上できることを示した。
論文 参考訳(メタデータ) (2024-08-28T07:49:30Z) - Microsaccade-inspired Event Camera for Robotics [42.27082276343167]
低反応時間と安定したテクスチャを同時に維持できるイベントベース認識システムの設計を行う。
回転するくさびプリズムの幾何学的光学は、追加の回転運動のアルゴリズムによる補償を可能にする。
様々な実世界の実験では、ロボット工学が低レベルと高レベルの両方の視覚タスクに対して知覚を促進する可能性を実証している。
論文 参考訳(メタデータ) (2024-05-28T02:49:46Z) - Minimum Latency Deep Online Video Stabilization [77.68990069996939]
本稿では,オンラインビデオ安定化作業のための新しいカメラパス最適化フレームワークを提案する。
本研究では,近年の市販の高品位深度モーションモデルを用いて動き推定を行い,カメラの軌道を復元する。
我々の手法は、定性的にも量的にも最先端のオンライン手法を大きく上回っている。
論文 参考訳(メタデータ) (2022-12-05T07:37:32Z) - Self-Supervised Real-time Video Stabilization [100.00816752529045]
本稿では,リアルタイムビデオ安定化手法を提案する。
この動画は、まるでジンバルでリアルタイムで安定しているかのように、不安定な動画に変換します。
論文 参考訳(メタデータ) (2021-11-10T22:49:56Z) - Neural Re-rendering for Full-frame Video Stabilization [144.9918806873405]
まず,高密度ワープ場を推定し,フルフレーム映像安定化のためのアルゴリズムを提案する。
フルフレーム安定化フレームは、隣接するフレームから歪んだコンテンツを融合することで合成することができる。
論文 参考訳(メタデータ) (2021-02-11T18:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。