論文の概要: SRVIO: Super Robust Visual Inertial Odometry for dynamic environments
and challenging Loop-closure conditions
- arxiv url: http://arxiv.org/abs/2201.05386v1
- Date: Fri, 14 Jan 2022 10:52:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-17 19:28:44.448021
- Title: SRVIO: Super Robust Visual Inertial Odometry for dynamic environments
and challenging Loop-closure conditions
- Title(参考訳): SRVIO: 動的環境のための超ロバスト視覚慣性オドメトリーとループ閉鎖条件
- Authors: Ali Samadzadeh, Ahmad Nickabadi
- Abstract要約: 視覚的ローカライゼーションやオドメトリー問題は、自律ロボットや自動車の分野でよく知られた課題である。
伝統的に、この問題はライダーのような高価なセンサーの助けを借りて対処することができる。
今日、主要な研究は、カメラやIMUなどの経済センサーを用いたロバストなローカライゼーションである。
研究者たちは、この問題を緩和するためにディープニューラルネットワーク(DNN)を救世主として使うようになった。
- 参考スコア(独自算出の注目度): 0.913755431537592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The visual localization or odometry problem is a well-known challenge in the
field of autonomous robots and cars. Traditionally, this problem can ba tackled
with the help of expensive sensors such as lidars. Nowadays, the leading
research is on robust localization using economic sensors, such as cameras and
IMUs. The geometric methods based on these sensors are pretty good in normal
conditions withstable lighting and no dynamic objects. These methods suffer
from significant loss and divergence in such challenging environments. The
scientists came to use deep neural networks (DNNs) as the savior to mitigate
this problem. The main idea behind using DNNs was to better understand the
problem inside the data and overcome complex conditions (such as a dynamic
object in front of the camera, extreme lighting conditions, keeping the track
at high speeds, etc.) The prior endto-end DNN methods are able to overcome some
of the mentioned challenges. However, no general and robust framework for all
of these scenarios is available. In this paper, we have combined geometric and
DNN based methods to have the pros of geometric SLAM frameworks and overcome
the remaining challenges with the DNNs help. To do this, we have modified the
Vins-Mono framework (the most robust and accurate framework till now) and we
were able to achieve state-of-the-art results on TUM-Dynamic, TUM-VI, ADVIO and
EuRoC datasets compared to geometric and end-to-end DNN based SLAMs. Our
proposed framework was also able to achieve acceptable results on extreme
simulated cases resembling the challenges mentioned earlier easy.
- Abstract(参考訳): 視覚局在やオドメトリー問題は、自律ロボットや自動車の分野でよく知られた課題である。
伝統的に、この問題はライダーのような高価なセンサーの助けを借りて対処することができる。
近年,カメラやimusなどの経済センサを用いたロバストな位置決めに関する研究が盛んである。
これらのセンサーに基づく幾何学的手法は、不安定な照明と動的物体の無い通常の条件ではかなり良い。
これらの手法は、このような困難な環境において大きな損失と分散を被る。
研究者たちはこの問題を緩和するためにディープニューラルネットワーク(DNN)を救世主として利用するようになった。
DNNを使うことの背景にある主な考え方は、データ内の問題をよりよく理解し、複雑な条件(例えば、カメラの前の動的オブジェクト、極端な照明条件、トラックを高速に保つなど)を克服することであった。
しかし、これらすべてのシナリオに対する汎用的で堅牢なフレームワークは提供されていない。
本稿では、幾何学的SLAMフレームワークの長所と、DNNの支援による残りの課題を克服するために、幾何学的手法とDNNに基づく手法を組み合わせる。
そのために、Vins-Monoフレームワーク(これまででもっとも堅牢で正確なフレームワーク)を修正し、幾何学的およびエンドツーエンドのDNNベースのSLAMと比較して、TUM-Dynamic、TUM-VI、ADVIO、EuRoCデータセットの最先端結果を実現しました。
提案フレームワークは,先述した課題に類似した極端なシミュレートケースに対して,許容できる結果を得ることができた。
関連論文リスト
- NID-SLAM: Neural Implicit Representation-based RGB-D SLAM in dynamic
environments [10.413523346264055]
動的環境におけるニューラルSLAMの性能を大幅に向上させるNID-SLAMを提案する。
本稿では, セマンティックマスクにおける不正確な領域, 特に辺縁領域における不正確な領域を強化するための新しいアプローチを提案する。
また,ダイナミックシーンの選択戦略を導入し,大規模オブジェクトに対するカメラトラッキングの堅牢性を高める。
論文 参考訳(メタデータ) (2024-01-02T12:35:03Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - SAfER: Layer-Level Sensitivity Assessment for Efficient and Robust
Neural Network Inference [20.564198591600647]
ディープニューラルネットワーク(DNN)は、ほとんどのコンピュータビジョンタスクにおいて優れたパフォーマンスを示す。
自律運転や医療画像などの重要な応用には、その行動の調査も必要である。
DNNの属性は、DNNの予測と入力の関係を研究することである。
論文 参考訳(メタデータ) (2023-08-09T07:45:51Z) - Towards Nonlinear-Motion-Aware and Occlusion-Robust Rolling Shutter
Correction [54.00007868515432]
既存の手法では、一様速度仮定による補正の精度を推定する上で、課題に直面している。
本稿では,個々の画素の高次補正場を正確に推定する,幾何的回転シャッター(QRS)運動解法を提案する。
提案手法は,Carla-RS,Fastec-RS,BS-RSCの各データセット上で,PSNRの+4.98,+0.77,+4.33を超える。
論文 参考訳(メタデータ) (2023-03-31T15:09:18Z) - DiverGet: A Search-Based Software Testing Approach for Deep Neural
Network Quantization Assessment [10.18462284491991]
量子化は、最も応用されたディープニューラルネットワーク(DNN)圧縮戦略の1つである。
量子化評価のための検索ベースのテストフレームワークであるDiverGetを提案する。
ハイパースペクトルリモートセンシング画像に適用した最先端DNNにおけるDiverGetの性能評価を行った。
論文 参考訳(メタデータ) (2022-07-13T15:27:51Z) - Learning to Solve PDE-constrained Inverse Problems with Graph Networks [51.89325993156204]
科学と工学にまたがる多くの応用分野において、偏微分方程式(PDE)によって定義される制約で逆問題を解決することに興味がある。
ここでは、これらのPDE制約された逆問題を解決するために、GNNを探索する。
GNNを用いて計算速度を最大90倍に向上させる。
論文 参考訳(メタデータ) (2022-06-01T18:48:01Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - StyleLess layer: Improving robustness for real-world driving [5.9185565986343835]
ディープニューラルネットワーク(DNN)は、自動運転車にとって重要なコンポーネントです。
大量のラベル付きデータから情報を取り出し、優れた性能を発揮します。
しかし、現実世界の完全な複雑さをトレーニングデータにカプセル化することはできない。
stylelessと呼ばれる新しいタイプのレイヤによってこの問題に対処します。
論文 参考訳(メタデータ) (2021-03-25T15:15:39Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。