論文の概要: Tightly-coupled Visual-DVL-Inertial Odometry for Robot-based Ice-water
Boundary Exploration
- arxiv url: http://arxiv.org/abs/2303.17005v2
- Date: Wed, 9 Aug 2023 18:00:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 16:07:16.585002
- Title: Tightly-coupled Visual-DVL-Inertial Odometry for Robot-based Ice-water
Boundary Exploration
- Title(参考訳): ロボットによる氷水境界探査のための高結合型ビジュアルDVL-慣性オドメトリー
- Authors: Lin Zhao, Mingxi Zhou, Brice Loose
- Abstract要約: ローカライズ精度を高めるために,マルチセンサ融合フレームワークを提案する。
画像、ドップラー速度ログ(DVL)、慣性測定ユニット(IMU)、圧力センサーが統合されている。
提案手法は,凍結氷下のフィールドで収集したデータセットを用いて検証した。
- 参考スコア(独自算出の注目度): 8.555466536537292
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Robotic underwater systems, e.g., Autonomous Underwater Vehicles (AUVs) and
Remotely Operated Vehicles (ROVs), are promising tools for collecting
biogeochemical data at the ice-water interface for scientific advancements.
However, state estimation, i.e., localization, is a well-known problem for
robotic systems, especially, for the ones that travel underwater. In this
paper, we present a tightly-coupled multi-sensors fusion framework to increase
localization accuracy that is robust to sensor failure. Visual images, Doppler
Velocity Log (DVL), Inertial Measurement Unit (IMU) and Pressure sensor are
integrated into the state-of-art Multi-State Constraint Kalman Filter (MSCKF)
for state estimation. Besides that a new keyframe-based state clone mechanism
and a new DVL-aided feature enhancement are presented to further improve the
localization performance. The proposed method is validated with a data set
collected in the field under frozen ice, and the result is compared with 6
other different sensor fusion setups. Overall, the result with the keyframe
enabled and DVL-aided feature enhancement yields the best performance with a
Root-mean-square error of less than 2 m compared to the ground truth path with
a total traveling distance of about 200 m.
- Abstract(参考訳): AUV(Autonomous Underwater Vehicles)やROV(Remotely Operated Vehicles)などのロボット水中システムは、科学的な進歩のために氷水界面で生物地球化学データを収集するための有望なツールである。
しかし、状態推定、すなわちローカライゼーションは、特に水中を走行するロボットシステムにおいてよく知られた問題である。
本稿では,センサ故障に対するロバストな局所化精度を高めるために,密結合型多センサ融合フレームワークを提案する。
画像、ドップラー速度ログ(DVL)、慣性測定ユニット(IMU)、圧力センサを最先端のマルチステート制約カルマンフィルタ(MSCKF)に統合して状態推定を行う。
さらに、新しいキーフレームベースの状態クローン機構と新しいDVL支援機能拡張を示し、ローカライゼーション性能をさらに向上させる。
提案手法は,凍結氷下のフィールドで収集したデータセットを用いて検証し,他の6種類のセンサ融合装置と比較した。
全体として、キーフレーム有効化とDVL支援による特徴増強により、ルート平均二乗誤差が2m未満の場合に、走行距離が約200mの地上の真理経路と比較して最高の性能が得られる。
関連論文リスト
- Improving Visual Place Recognition Based Robot Navigation By Verifying Localization Estimates [14.354164363224529]
本研究では,MLP(Multi-Layer Perceptron)整合性モニタを提案する。
パフォーマンスと一般化性の向上、環境ごとのトレーニングの削除、手動のチューニング要件の削減などがその例だ。
提案手法を実世界の大規模な実験で検証した。
論文 参考訳(メタデータ) (2024-07-11T03:47:14Z) - OptiState: State Estimation of Legged Robots using Gated Networks with Transformer-based Vision and Kalman Filtering [42.817893456964]
脚のあるロボットの状態推定は、非常にダイナミックな動きとセンサーの精度による制限のために困難である。
本稿では,ロボットのトランクの状態を推定するために,プロピロセプションと外部受動的情報を組み合わせたハイブリッドソリューションを提案する。
このフレームワークは正確なロボットの状態推定を行うだけでなく、センサの測定や学習によるモデルの単純化から生じる非線形誤差を最小限に抑えることができる。
論文 参考訳(メタデータ) (2024-01-30T03:34:25Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - Ultra-low Power Deep Learning-based Monocular Relative Localization
Onboard Nano-quadrotors [64.68349896377629]
この研究は、2つのピアナノドロンのディープニューラルネットワーク(DNN)を介して、単分子の相対的な局所化に対処する、新しい自律的なエンドツーエンドシステムを示す。
超制約ナノドローンプラットフォームに対処するため,データセットの増大,量子化,システム最適化などを含む垂直統合フレームワークを提案する。
実験の結果,DNNは低分解能モノクローム画像のみを用いて最大2mの距離で10cmのターゲットナノドローンを正確に局在させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T14:14:08Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - Distributed Variable-Baseline Stereo SLAM from two UAVs [17.513645771137178]
本稿では,単眼カメラを1台,IMUを1台搭載した2台のUAVを用いて,視界の重なりと相対距離の測定を行った。
本稿では,glsuavエージェントを自律的に制御するために,分散協調推定方式を提案する。
我々は,高度160mまでの飛行におけるアプローチの有効性を実証し,最先端のVIO手法の能力を大きく超えている。
論文 参考訳(メタデータ) (2020-09-10T12:16:10Z) - Transfer Learning for Motor Imagery Based Brain-Computer Interfaces: A
Complete Pipeline [54.73337667795997]
移動学習(TL)は、新しい被験者の校正作業を減らすために、運動画像(MI)ベースの脳-コンピュータインタフェース(BCI)に広く用いられている。
本稿では,MIベースのBCIの3つのコンポーネント(空間フィルタリング,特徴工学,分類)すべてにおいてTLが考慮できることを示す。
論文 参考訳(メタデータ) (2020-07-03T23:44:21Z) - MIMC-VINS: A Versatile and Resilient Multi-IMU Multi-Camera
Visual-Inertial Navigation System [44.76768683036822]
視覚慣性ナビゲーションシステムのためのリアルタイム一貫したマルチIMUマルチカメラ(CMU)-VINS推定器を提案する。
効率的な多状態制約フィルタ内では、提案したMIMC-VINSアルゴリズムは、すべてのセンサからの非同期測定を最適に融合する。
提案したMIMC-VINSはモンテカルロシミュレーションと実世界実験の両方で検証されている。
論文 参考訳(メタデータ) (2020-06-28T20:16:08Z) - PRGFlow: Benchmarking SWAP-Aware Unified Deep Visual Inertial Odometry [14.077054191270213]
視覚的翻訳推定のための深層学習手法を提案し、6DoF odometry 推定のための慣性センサでゆるやかに融合する。
我々は,MSCOCOデータセット上でネットワークを評価し,複数の実飛行軌道上でのVI融合を評価する。
論文 参考訳(メタデータ) (2020-06-11T19:12:54Z) - ASFD: Automatic and Scalable Face Detector [129.82350993748258]
ASFD(Automatic and Scalable Face Detector)を提案する。
ASFDはニューラルアーキテクチャ検索技術の組み合わせと新たな損失設計に基づいている。
ASFD-D0は120FPS以上で動作し、MobilenetはVGA解像度の画像を撮影しています。
論文 参考訳(メタデータ) (2020-03-25T06:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。