論文の概要: Movement Tracking by Optical Flow Assisted Inertial Navigation
- arxiv url: http://arxiv.org/abs/2006.13856v1
- Date: Wed, 24 Jun 2020 16:36:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 09:41:11.305607
- Title: Movement Tracking by Optical Flow Assisted Inertial Navigation
- Title(参考訳): オプティカルフローアシスト慣性ナビゲーションによる移動追跡
- Authors: Lassi Meronen, William J. Wilkinson, Arno Solin
- Abstract要約: 学習に基づく光フローモデルと従来の慣性ナビゲーションを組み合わせる方法を示す。
確率的深層学習のアイデアが測定更新の堅牢性にどのように役立つかを示す。
この実用性は、iPadが取得した現実世界のデータで実証されている。
- 参考スコア(独自算出の注目度): 18.67291804847956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust and accurate six degree-of-freedom tracking on portable devices
remains a challenging problem, especially on small hand-held devices such as
smartphones. For improved robustness and accuracy, complementary movement
information from an IMU and a camera is often fused. Conventional
visual-inertial methods fuse information from IMUs with a sparse cloud of
feature points tracked by the device camera. We consider a visually dense
approach, where the IMU data is fused with the dense optical flow field
estimated from the camera data. Learning-based methods applied to the full
image frames can leverage visual cues and global consistency of the flow field
to improve the flow estimates. We show how a learning-based optical flow model
can be combined with conventional inertial navigation, and how ideas from
probabilistic deep learning can aid the robustness of the measurement updates.
The practical applicability is demonstrated on real-world data acquired by an
iPad in a challenging low-texture environment.
- Abstract(参考訳): 携帯端末上でのロバストで正確な6自由度トラッキングは、特にスマートフォンのような小型ハンドヘルドデバイスでは難しい課題である。
堅牢性と精度を向上させるため、IMUとカメラからの相補的な動き情報はしばしば融合される。
従来の視覚慣性手法では、デバイスカメラが追跡する特徴点の少ない雲とimusから情報を融合する。
我々は、カメラデータから推定される高密度光流場とIMUデータを融合させる、視覚的に密度の高いアプローチを考える。
フルフレームに適用した学習ベースの手法は、フローの見積もりを改善するために、視覚的な手がかりとフローフィールドのグローバル一貫性を活用できる。
学習に基づく光フローモデルと従来の慣性ナビゲーションを組み合わせる方法と,確率的深層学習のアイデアが測定更新の堅牢性にどのように役立つかを示す。
実用性は、iPadが低テクスチャ環境に挑戦して取得した実世界のデータで実証される。
関連論文リスト
- Gaussian Splatting to Real World Flight Navigation Transfer with Liquid Networks [93.38375271826202]
本研究では,シミュレート・トゥ・リアルな視覚四重項ナビゲーションタスクにおける分布シフトに対する一般化とロバスト性を改善する手法を提案する。
まず,擬似飛行力学とガウススプラッティングを統合してシミュレータを構築し,その後,液状ニューラルネットワークを用いてロバストなナビゲーションポリシーを訓練する。
このようにして、我々は3次元ガウススプラッティングラディアンス場レンダリング、専門家による実演訓練データのプログラミング、およびLiquid Networkのタスク理解能力の進歩を組み合わせたフルスタックの模倣学習プロトコルを得る。
論文 参考訳(メタデータ) (2024-06-21T13:48:37Z) - GelFlow: Self-supervised Learning of Optical Flow for Vision-Based
Tactile Sensor Displacement Measurement [23.63445828014235]
本研究では,視覚に基づく触覚センサの変位計測において,深層学習に基づく自己監督型光フロー法を提案する。
提案する自己教師型ネットワークを,オープンソースデータセットを用いて訓練し,従来型およびディープラーニングベースの光フロー手法と比較した。
論文 参考訳(メタデータ) (2023-09-13T05:48:35Z) - FEDORA: Flying Event Dataset fOr Reactive behAvior [9.470870778715689]
イベントベースのセンサーは、高速な動きを捉えるための標準フレームベースのカメラに代わる低レイテンシと低エネルギーの代替として登場した。
Flying Eventデータセット fOr Reactive behAviour (FEDORA) - 知覚タスクのための完全に合成されたデータセット。
論文 参考訳(メタデータ) (2023-05-22T22:59:05Z) - EMA-VIO: Deep Visual-Inertial Odometry with External Memory Attention [5.144653418944836]
視覚慣性オドメトリー(VIO)アルゴリズムは、カメラと慣性センサーからの情報を利用して位置と翻訳を推定する。
最近のディープラーニングベースのVIOモデルは、データ駆動方式でポーズ情報を提供するため、注目を集めている。
状態推定のための視覚的特徴と慣性的特徴を効果的かつ効率的に組み合わせた,外部記憶に配慮した新しい学習ベースのVIOフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-18T07:05:36Z) - Towards Scale-Aware, Robust, and Generalizable Unsupervised Monocular
Depth Estimation by Integrating IMU Motion Dynamics [74.1720528573331]
教師なし単眼深度と自我運動推定は近年広く研究されている。
我々は、視覚情報とIMUモーションダイナミクスを統合した新しいスケールアウェアフレームワークDynaDepthを提案する。
我々は、KITTIおよびMake3Dデータセット上で広範囲な実験とシミュレーションを行うことにより、DynaDepthの有効性を検証する。
論文 参考訳(メタデータ) (2022-07-11T07:50:22Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - FAITH: Fast iterative half-plane focus of expansion estimation using
event-based optic flow [3.326320568999945]
本研究では, 小型航空機(MAV)の走行経路を決定するためのFAst ITerative Half-plane (FAITH)法を提案する。
その結果,提案手法の計算効率は高い精度を維持しながら最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-02-25T12:49:02Z) - Deep Learning based Pedestrian Inertial Navigation: Methods, Dataset and
On-Device Inference [49.88536971774444]
慣性測定ユニット(IMU)は小型で安価でエネルギー効率が良く、スマートデバイスや移動ロボットに広く使われている。
正確で信頼性の高い歩行者ナビゲーションをサポートするために慣性データをエクスプロイトすることは、新しいインターネット・オブ・シングス・アプリケーションやサービスにとって重要なコンポーネントである。
我々は、深層学習に基づく慣性ナビゲーション研究のための最初の公開データセットであるOxIOD(OxIOD)を提示、リリースする。
論文 参考訳(メタデータ) (2020-01-13T04:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。