論文の概要: MBA-VO: Motion Blur Aware Visual Odometry
- arxiv url: http://arxiv.org/abs/2103.13684v1
- Date: Thu, 25 Mar 2021 09:02:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 20:51:10.252405
- Title: MBA-VO: Motion Blur Aware Visual Odometry
- Title(参考訳): MBA-VO:視覚オドメトリーを意識したモーションブラインド
- Authors: Peidong Liu, Xingxing Zuo, Viktor Larsson and Marc Pollefeys
- Abstract要約: 運動のぼかしは視覚計測法に残る主要な課題の1つである。
露光時間が長い低照度条件では、比較的遅いカメラの動きでも動きのぼやけが現れます。
露光時間内にカメラの局所軌道をモデル化し,推定する,直接的なアプローチによる新しいハイブリッド視覚オドメトリーパイプラインを提案する。
- 参考スコア(独自算出の注目度): 99.56896875807635
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Motion blur is one of the major challenges remaining for visual odometry
methods. In low-light conditions where longer exposure times are necessary,
motion blur can appear even for relatively slow camera motions. In this paper
we present a novel hybrid visual odometry pipeline with direct approach that
explicitly models and estimates the camera's local trajectory within the
exposure time. This allows us to actively compensate for any motion blur that
occurs due to the camera motion. In addition, we also contribute a novel
benchmarking dataset for motion blur aware visual odometry. In experiments we
show that by directly modeling the image formation process, we are able to
improve robustness of the visual odometry, while keeping comparable accuracy as
that for images without motion blur.
- Abstract(参考訳): 運動のぼかしは視覚計測法に残る主要な課題の1つである。
長時間露光が必要な低照度環境では、比較的遅いカメラの動きであっても動きのぼかしが現れる。
本稿では,露光時間内にカメラの局所軌跡を明示的にモデル化し,推定する,直接的アプローチのハイブリッドなビジュアルオドメトリーパイプラインを提案する。
これにより、カメラの動きによって生じる動きのぼやけを積極的に補うことができます。
また,動きのぼかしを意識した視覚計測のための新しいベンチマークデータセットも提案する。
実験では、画像形成過程を直接モデル化することにより、動きのぼやけのない画像と同等の精度を保ちながら、視覚計測の堅牢性を向上させることができることを示す。
関連論文リスト
- Virtual Inverse Perspective Mapping for Simultaneous Pose and Motion
Estimation [5.199765487172328]
移動ロボット搭載単眼カメラの地表面に対するポーズと動きの自動推定法を提案する。
このフレームワークは、機能ベースの方法と画像登録ベースの方法の両方の利点を生かした、セミセンスなアプローチを採用している。
論文 参考訳(メタデータ) (2023-03-09T11:45:00Z) - Event-aided Direct Sparse Odometry [54.602311491827805]
本稿では,イベントとフレームを用いた直接単眼視覚計測法であるEDSを紹介する。
我々のアルゴリズムは、イベント生成モデルを利用して、フレーム間のブラインドタイムにおけるカメラの動きを追跡する。
EDSは直接アプローチでイベントとフレームを使用して6-DOF VOを実行する最初の方法である。
論文 参考訳(メタデータ) (2022-04-15T20:40:29Z) - Learning Spatially Varying Pixel Exposures for Motion Deblurring [49.07867902677453]
本研究では,空間的に異なる画素の露光を利用して動きを損なう新しい手法を提案する。
我々の研究は、未来のコンピュータイメージングにおいて、焦点面センサー-プロセッサが果たすべき役割を説明している。
論文 参考訳(メタデータ) (2022-04-14T23:41:49Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - Spatiotemporal Registration for Event-based Visual Odometry [40.02502611087858]
イベントセンシングの有用な応用は、特に高時間分解能を必要とする設定において視覚計測である。
本稿では,イベントベース回転運動推定手法として大規模登録を提案する。
また,高精度ロボットアームを用いて,速度変動が大きい動き列を取得するビジュアルオドメトリーのための新しいイベントデータセットも提供した。
論文 参考訳(メタデータ) (2021-03-10T09:23:24Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - Exposure Trajectory Recovery from Motion Blur [90.75092808213371]
ダイナミックシーンにおける動きのぼやけは重要な研究テーマである。
本稿では、ぼやけた画像に含まれる動き情報を表す露光軌跡を定義する。
静止シャープ画像の画素方向の変位をモデル化するための新しい動きオフセット推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-06T05:23:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。