論文の概要: SM/VIO: Robust Underwater State Estimation Switching Between Model-based
and Visual Inertial Odometry
- arxiv url: http://arxiv.org/abs/2304.01988v1
- Date: Tue, 4 Apr 2023 17:46:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 12:54:28.193169
- Title: SM/VIO: Robust Underwater State Estimation Switching Between Model-based
and Visual Inertial Odometry
- Title(参考訳): SM/VIO:モデルベースと視覚慣性オドメトリー間のロバスト水中状態推定スイッチ
- Authors: Bharat Joshi, Hunter Damron, Sharmin Rahman, Ioannis Rekleitis
- Abstract要約: 本稿では,水中操作における視覚慣性状態推定のロバスト性問題に対処する。
提案手法では,ロボットの運動学モデルと固有感覚センサを用いてポーズ推定を行う。
ヘルスモニタリングは、2つの推定器間のタイムリーな切り替えを保証するVIOプロセスを追跡する。
- 参考スコア(独自算出の注目度): 1.9785872350085876
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper addresses the robustness problem of visual-inertial state
estimation for underwater operations. Underwater robots operating in a
challenging environment are required to know their pose at all times. All
vision-based localization schemes are prone to failure due to poor visibility
conditions, color loss, and lack of features. The proposed approach utilizes a
model of the robot's kinematics together with proprioceptive sensors to
maintain the pose estimate during visual-inertial odometry (VIO) failures.
Furthermore, the trajectories from successful VIO and the ones from the
model-driven odometry are integrated in a coherent set that maintains a
consistent pose at all times. Health-monitoring tracks the VIO process ensuring
timely switches between the two estimators. Finally, loop closure is
implemented on the overall trajectory. The resulting framework is a robust
estimator switching between model-based and visual-inertial odometry (SM/VIO).
Experimental results from numerous deployments of the Aqua2 vehicle demonstrate
the robustness of our approach over coral reefs and a shipwreck.
- Abstract(参考訳): 本稿では,水中操作における視覚慣性状態推定のロバスト性問題に対処する。
難易度の高い環境で動作する水中ロボットは、常に自分のポーズを知る必要がある。
すべての視覚ベースのローカライゼーションスキームは、視認性が悪いこと、色損失、特徴の欠如により失敗する傾向がある。
提案手法は,視覚・慣性眼振(VIO)障害時のポーズ推定を維持するために,ロボットのキネマティクスモデルと主受容型センサーを用いた。
さらに、成功したVIOの軌跡とモデル駆動オドメトリーの軌跡は、常に一貫したポーズを維持するコヒーレントな集合に統合される。
ヘルスモニタリングは、2つの推定器間のタイムリーな切り替えを保証するVIOプロセスを追跡する。
最後に、ループ閉鎖は全体の軌道上に実装される。
結果として得られるフレームワークは、モデルベースと視覚慣性オドメトリー(SM/VIO)間の堅牢な推定器スイッチングである。
Aqua2車両の多数の配備による実験結果から、サンゴ礁と難破船に対する我々のアプローチの堅牢性が確認された。
関連論文リスト
- FAFA: Frequency-Aware Flow-Aided Self-Supervision for Underwater Object Pose Estimation [65.01601309903971]
無人水中車両(UUV)の6次元ポーズ推定のための周波数認識フロー支援フレームワークであるFAFAを紹介する。
我々のフレームワークは、3DモデルとRGB画像のみに依存しており、実際のポーズアノテーションや奥行きのような非モダリティデータの必要性を軽減しています。
本研究では,一般的な水中オブジェクトポーズベンチマークにおけるFAFAの有効性を評価し,最先端手法と比較して顕著な性能向上を示した。
論文 参考訳(メタデータ) (2024-09-25T03:54:01Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Vision-Based Autonomous Navigation for Unmanned Surface Vessel in
Extreme Marine Conditions [2.8983738640808645]
本稿では,極端海洋環境下での目標物追跡のための自律的視覚に基づくナビゲーション・フレームワークを提案する。
提案手法は砂嵐や霧による可視性低下下でのシミュレーションで徹底的に検証されている。
結果は、ベンチマークしたMBZIRCシミュレーションデータセット全体にわたる最先端のデハージング手法と比較される。
論文 参考訳(メタデータ) (2023-08-08T14:25:13Z) - AVOIDDS: Aircraft Vision-based Intruder Detection Dataset and Simulator [37.579437595742995]
AVOIDDSは、視覚に基づく航空機の検知・回避問題に対する現実的な物体検出ベンチマークである。
各種照明条件を有する侵入機の光実写画像72,000枚からなるラベル付きデータセットを提供する。
また、このデータセットのスライス上でトレーニングされたモデルを評価し、環境条件の変化に対する性能の変化を特定するインタフェースも提供する。
論文 参考訳(メタデータ) (2023-06-19T23:58:07Z) - Uncertainty-Aware Adaptation for Self-Supervised 3D Human Pose
Estimation [70.32536356351706]
本稿では、2つの出力ヘッドを2つの異なる構成にサブスクライブする共通のディープネットワークバックボーンを構成するMPP-Netを紹介する。
ポーズと関節のレベルで予測の不確実性を定量化するための適切な尺度を導出する。
本稿では,提案手法の総合評価を行い,ベンチマークデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2022-03-29T07:14:58Z) - A high-precision self-supervised monocular visual odometry in foggy
weather based on robust cycled generative adversarial networks and multi-task
learning aided depth estimation [0.0]
本稿では,霧の天候下でのナビゲーションに特化して設計された,高精度な自己監督型単分子VOを提案する。
サイクル生成対向ネットワークは、前と後ろの半サイクルに一貫した推定を強制することで、高品質な自己監督的損失を得るように設計されている。
霧の天候における自己監督的損失に対する複雑な光度変化の干渉を取り除くため、勾配に基づく損失と知覚的損失が導入された。
論文 参考訳(メタデータ) (2022-03-09T15:41:57Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - A Framework for 3D Tracking of Frontal Dynamic Objects in Autonomous
Cars [0.0]
本論文では, YOLOv3 アプローチを OpenCV トラッカーの横に使用し, 画像から特徴を引き出す。
横距離と縦距離を得るため、状態依存リッカティ方程式フィルタと並行して非線形sfmモデルを考える。
SDREフィルタの堅牢な性能を高めるために, スイッチング推定誤差共分散方式のスイッチング方式を提案する。
論文 参考訳(メタデータ) (2021-03-24T18:21:29Z) - SVAM: Saliency-guided Visual Attention Modeling by Autonomous Underwater
Robots [16.242924916178282]
本稿では,自律型水中ロボットの視覚的注意モデル(SVAM)に対する総合的なアプローチを提案する。
提案するSVAM-Netは,様々なスケールの深部視覚的特徴を統合し,自然水中画像に有効なSOD(Salient Object Detection)を実現する。
論文 参考訳(メタデータ) (2020-11-12T08:17:21Z) - Kinematic-Structure-Preserved Representation for Unsupervised 3D Human
Pose Estimation [58.72192168935338]
大規模インスタディオデータセットの監視を用いて開発された人間のポーズ推定モデルの一般化可能性については疑問が残る。
本稿では,2対あるいは2対の弱い監督者によって抑制されない,新しいキネマティック構造保存型非教師付き3次元ポーズ推定フレームワークを提案する。
提案モデルでは,前方運動学,カメラ投影,空間マップ変換という3つの連続的な微分可能変換を用いる。
論文 参考訳(メタデータ) (2020-06-24T23:56:33Z) - Consistency Guided Scene Flow Estimation [159.24395181068218]
CGSFは立体映像からの3次元シーン構造と動きの同時再構成のための自己教師型フレームワークである。
提案モデルでは,課題の画像の相違やシーンフローを確実に予測できることを示す。
最先端技術よりも優れた一般化を実現し、目に見えない領域に迅速かつ堅牢に適応する。
論文 参考訳(メタデータ) (2020-06-19T17:28:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。