論文の概要: Set-Transformer BeamsNet for AUV Velocity Forecasting in Complete DVL
Outage Scenarios
- arxiv url: http://arxiv.org/abs/2212.11671v1
- Date: Thu, 22 Dec 2022 13:10:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 15:37:09.412565
- Title: Set-Transformer BeamsNet for AUV Velocity Forecasting in Complete DVL
Outage Scenarios
- Title(参考訳): 完全DVL故障シナリオにおけるAUV速度予測のためのSet-Transformer BeamsNet
- Authors: Nadav Cohen, Zeev Yampolsky and Itzik Klein
- Abstract要約: 本研究では,DVLが完全に停止した場合の現在のAUV速度を抑えるために,Set-Transformer-based BeamsNetを提案する。
本手法は,スナップルAUVを用いて地中海で実施した実験データを用いて評価した。
- 参考スコア(独自算出の注目度): 10.64241024049424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous underwater vehicles (AUVs) are regularly used for deep ocean
applications. Commonly, the autonomous navigation task is carried out by a
fusion between two sensors: the inertial navigation system and the Doppler
velocity log (DVL). The DVL operates by transmitting four acoustic beams to the
sea floor, and once reflected back, the AUV velocity vector can be estimated.
However, in real-life scenarios, such as an uneven seabed, sea creatures
blocking the DVL's view and, roll/pitch maneuvers, the acoustic beams'
reflection is resulting in a scenario known as DVL outage. Consequently, a
velocity update is not available to bind the inertial solution drift. To cope
with such situations, in this paper, we leverage our BeamsNet framework and
propose a Set-Transformer-based BeamsNet (ST-BeamsNet) that utilizes inertial
data readings and previous DVL velocity measurements to regress the current AUV
velocity in case of a complete DVL outage. The proposed approach was evaluated
using data from experiments held in the Mediterranean Sea with the Snapir AUV
and was compared to a moving average (MA) estimator. Our ST-BeamsNet estimated
the AUV velocity vector with an 8.547% speed error, which is 26% better than
the MA approach.
- Abstract(参考訳): 自律型水中車両(AUV)は、海洋深層探査によく使用される。
一般的に、自律ナビゲーションタスクは、慣性ナビゲーションシステムとドップラー速度ログ(DVL)という2つのセンサーの融合によって実行される。
DVLは4つの音響ビームを海底に送信して動作し、一度反射するとAUV速度ベクトルを推定できる。
しかし、不均一な海底、DVLの視界を遮る海洋生物、ロール/ピッチの操作のような現実のシナリオでは、音響ビームの反射はDVLの停止と呼ばれるシナリオをもたらす。
そのため、慣性溶液ドリフトを結合する速度更新は利用できない。
このような状況に対処するため,本論文では,BeamsNetフレームワークを活用し,慣性データ読取とそれ以前のDVL速度測定を利用して,DVLの完全停止時に現在のAUV速度を回復するSet-Transformer-based BeamsNet(ST-BeamsNet)を提案する。
提案手法は,スペンサーAUVを用いて地中海で実施した実験データを用いて評価し,移動平均(MA)推定器と比較した。
我々のST-BeamsNetは、AUV速度ベクトルを8.547%の速度誤差で推定した。
関連論文リスト
- DCNet: A Data-Driven Framework for DVL Calibration [2.915868985330569]
本稿では,2次元畳み込みカーネルを革新的な方法で利用するデータ駆動型フレームワークDCNetを紹介する。
平均精度は70%,キャリブレーション時間は80%向上した。
また, 低コストで高精度なDVLを用いた海洋ロボット工学の新たな応用を開拓した。
論文 参考訳(メタデータ) (2024-10-11T13:47:40Z) - Seamless Underwater Navigation with Limited Doppler Velocity Log Measurements [13.221163846643607]
限られたDVL測定条件下でのシームレスなAUVナビゲーションのためのハイブリッドニューラルカップリング(HNC)手法を提案する。
まず、DVLビームを2つまたは3つ失くすためのアプローチを推進します。
その後、これらのビームは測定されたビームとともに拡張カルマンフィルタ(EKF)に組み込まれる。
論文 参考訳(メタデータ) (2024-04-21T18:56:54Z) - BEV-MAE: Bird's Eye View Masked Autoencoders for Point Cloud
Pre-training in Autonomous Driving Scenarios [51.285561119993105]
自律運転におけるLiDARに基づく3Dオブジェクト検出のための,効率的なマスク付きオートエンコーダ事前学習フレームワークであるBEV-MAEを提案する。
具体的には、3Dエンコーダ学習特徴表現を導くために,鳥の目視(BEV)誘導マスキング戦略を提案する。
学習可能なポイントトークンを導入し、3Dエンコーダの一貫性のある受容的フィールドサイズを維持する。
論文 参考訳(メタデータ) (2022-12-12T08:15:03Z) - LiBeamsNet: AUV Velocity Vector Estimation in Situations of Limited DVL
Beam Measurements [12.572597882082054]
AUVは人間の手の届かない深海環境でも運用できる。
慣性ナビゲーションシステムとドップラー速度ログセンサを融合することにより、自律ナビゲーション問題の標準解を得ることができる。
本稿では、慣性データと部分ビーム速度を利用して不足ビームを回帰する深層学習フレームワークLiBeamsNetを提案する。
論文 参考訳(メタデータ) (2022-10-20T20:17:23Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - BeamsNet: A data-driven Approach Enhancing Doppler Velocity Log
Measurements for Autonomous Underwater Vehicle Navigation [12.572597882082054]
本稿では,推定DVL速度ベクトルを回帰するエンドツーエンドのディープラーニングフレームワークであるBeamsNetを提案する。
その結果,提案手法はDVL速度ベクトルの推定において60%以上の改善を達成できた。
論文 参考訳(メタデータ) (2022-06-27T19:38:38Z) - An Empirical Study of Training End-to-End Vision-and-Language
Transformers [50.23532518166621]
我々はMETER(textbfMultimodal textbfEnd-to-end textbfTransformtextbfER)を提案する。
具体的には、視覚エンコーダ(例えば、CLIP-ViT、Swin変換器)、テキストエンコーダ(例えば、RoBERTa、DeBERTa)、マルチモーダルフュージョン(例えば、マージアテンション対共振器)である。
論文 参考訳(メタデータ) (2021-11-03T17:55:36Z) - A Deep Learning Approach To Dead-Reckoning Navigation For Autonomous
Underwater Vehicles With Limited Sensor Payloads [0.0]
自律型水中車両(AUV)の相対水平速度を予測するためにリカレントニューラルネットワーク(RNN)を開発した。
RNNネットワークは、ドップラー速度ロガー(DVL)が地上の真理速度を提供する実験データを用いて訓練される。
相対速度の予測は、北と東の位置を近似するデッドレコンディングアルゴリズムで実施された。
論文 参考訳(メタデータ) (2021-10-01T21:40:10Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。