論文の概要: Movement Tracking by Optical Flow Assisted Inertial Navigation
- arxiv url: http://arxiv.org/abs/2006.13856v1
- Date: Wed, 24 Jun 2020 16:36:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 09:41:11.305607
- Title: Movement Tracking by Optical Flow Assisted Inertial Navigation
- Title(参考訳): オプティカルフローアシスト慣性ナビゲーションによる移動追跡
- Authors: Lassi Meronen, William J. Wilkinson, Arno Solin
- Abstract要約: 学習に基づく光フローモデルと従来の慣性ナビゲーションを組み合わせる方法を示す。
確率的深層学習のアイデアが測定更新の堅牢性にどのように役立つかを示す。
この実用性は、iPadが取得した現実世界のデータで実証されている。
- 参考スコア(独自算出の注目度): 18.67291804847956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust and accurate six degree-of-freedom tracking on portable devices
remains a challenging problem, especially on small hand-held devices such as
smartphones. For improved robustness and accuracy, complementary movement
information from an IMU and a camera is often fused. Conventional
visual-inertial methods fuse information from IMUs with a sparse cloud of
feature points tracked by the device camera. We consider a visually dense
approach, where the IMU data is fused with the dense optical flow field
estimated from the camera data. Learning-based methods applied to the full
image frames can leverage visual cues and global consistency of the flow field
to improve the flow estimates. We show how a learning-based optical flow model
can be combined with conventional inertial navigation, and how ideas from
probabilistic deep learning can aid the robustness of the measurement updates.
The practical applicability is demonstrated on real-world data acquired by an
iPad in a challenging low-texture environment.
- Abstract(参考訳): 携帯端末上でのロバストで正確な6自由度トラッキングは、特にスマートフォンのような小型ハンドヘルドデバイスでは難しい課題である。
堅牢性と精度を向上させるため、IMUとカメラからの相補的な動き情報はしばしば融合される。
従来の視覚慣性手法では、デバイスカメラが追跡する特徴点の少ない雲とimusから情報を融合する。
我々は、カメラデータから推定される高密度光流場とIMUデータを融合させる、視覚的に密度の高いアプローチを考える。
フルフレームに適用した学習ベースの手法は、フローの見積もりを改善するために、視覚的な手がかりとフローフィールドのグローバル一貫性を活用できる。
学習に基づく光フローモデルと従来の慣性ナビゲーションを組み合わせる方法と,確率的深層学習のアイデアが測定更新の堅牢性にどのように役立つかを示す。
実用性は、iPadが低テクスチャ環境に挑戦して取得した実世界のデータで実証される。
関連論文リスト
- GelFlow: Self-supervised Learning of Optical Flow for Vision-Based
Tactile Sensor Displacement Measurement [23.63445828014235]
本研究では,視覚に基づく触覚センサの変位計測において,深層学習に基づく自己監督型光フロー法を提案する。
提案する自己教師型ネットワークを,オープンソースデータセットを用いて訓練し,従来型およびディープラーニングベースの光フロー手法と比較した。
論文 参考訳(メタデータ) (2023-09-13T05:48:35Z) - Optical Flow for Autonomous Driving: Applications, Challenges and
Improvements [0.9023847175654602]
学習に基づく光フローアルゴリズムを改善するためのトレーニング戦略を提案し,評価する。
合成データを訓練しながら、このモデルは現実世界の魚眼データに一般化する強力な能力を示す。
低光域における既存手法の性能を大幅に向上させる,新しい汎用的な半教師付きフレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-11T12:01:42Z) - EMA-VIO: Deep Visual-Inertial Odometry with External Memory Attention [5.144653418944836]
視覚慣性オドメトリー(VIO)アルゴリズムは、カメラと慣性センサーからの情報を利用して位置と翻訳を推定する。
最近のディープラーニングベースのVIOモデルは、データ駆動方式でポーズ情報を提供するため、注目を集めている。
状態推定のための視覚的特徴と慣性的特徴を効果的かつ効率的に組み合わせた,外部記憶に配慮した新しい学習ベースのVIOフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-18T07:05:36Z) - Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular
Depth Estimation by Integrating IMU Motion Dynamics [74.1720528573331]
教師なし単眼深度と自我運動推定は近年広く研究されている。
我々は、視覚情報とIMUモーションダイナミクスを統合した新しいスケールアウェアフレームワークDynaDepthを提案する。
我々は、KITTIおよびMake3Dデータセット上で広範囲な実験とシミュレーションを行うことにより、DynaDepthの有効性を検証する。
論文 参考訳(メタデータ) (2022-07-11T07:50:22Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - FAITH: Fast iterative half-plane focus of expansion estimation using
event-based optic flow [3.326320568999945]
本研究では, 小型航空機(MAV)の走行経路を決定するためのFAst ITerative Half-plane (FAITH)法を提案する。
その結果,提案手法の計算効率は高い精度を維持しながら最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-02-25T12:49:02Z) - Deep Learning based Pedestrian Inertial Navigation: Methods, Dataset and
On-Device Inference [49.88536971774444]
慣性測定ユニット(IMU)は小型で安価でエネルギー効率が良く、スマートデバイスや移動ロボットに広く使われている。
正確で信頼性の高い歩行者ナビゲーションをサポートするために慣性データをエクスプロイトすることは、新しいインターネット・オブ・シングス・アプリケーションやサービスにとって重要なコンポーネントである。
我々は、深層学習に基づく慣性ナビゲーション研究のための最初の公開データセットであるOxIOD(OxIOD)を提示、リリースする。
論文 参考訳(メタデータ) (2020-01-13T04:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。