論文の概要: SRVIO: Super Robust Visual Inertial Odometry for dynamic environments
and challenging Loop-closure conditions
- arxiv url: http://arxiv.org/abs/2201.05386v1
- Date: Fri, 14 Jan 2022 10:52:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-17 19:28:44.448021
- Title: SRVIO: Super Robust Visual Inertial Odometry for dynamic environments
and challenging Loop-closure conditions
- Title(参考訳): SRVIO: 動的環境のための超ロバスト視覚慣性オドメトリーとループ閉鎖条件
- Authors: Ali Samadzadeh, Ahmad Nickabadi
- Abstract要約: 視覚的ローカライゼーションやオドメトリー問題は、自律ロボットや自動車の分野でよく知られた課題である。
伝統的に、この問題はライダーのような高価なセンサーの助けを借りて対処することができる。
今日、主要な研究は、カメラやIMUなどの経済センサーを用いたロバストなローカライゼーションである。
研究者たちは、この問題を緩和するためにディープニューラルネットワーク(DNN)を救世主として使うようになった。
- 参考スコア(独自算出の注目度): 0.913755431537592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The visual localization or odometry problem is a well-known challenge in the
field of autonomous robots and cars. Traditionally, this problem can ba tackled
with the help of expensive sensors such as lidars. Nowadays, the leading
research is on robust localization using economic sensors, such as cameras and
IMUs. The geometric methods based on these sensors are pretty good in normal
conditions withstable lighting and no dynamic objects. These methods suffer
from significant loss and divergence in such challenging environments. The
scientists came to use deep neural networks (DNNs) as the savior to mitigate
this problem. The main idea behind using DNNs was to better understand the
problem inside the data and overcome complex conditions (such as a dynamic
object in front of the camera, extreme lighting conditions, keeping the track
at high speeds, etc.) The prior endto-end DNN methods are able to overcome some
of the mentioned challenges. However, no general and robust framework for all
of these scenarios is available. In this paper, we have combined geometric and
DNN based methods to have the pros of geometric SLAM frameworks and overcome
the remaining challenges with the DNNs help. To do this, we have modified the
Vins-Mono framework (the most robust and accurate framework till now) and we
were able to achieve state-of-the-art results on TUM-Dynamic, TUM-VI, ADVIO and
EuRoC datasets compared to geometric and end-to-end DNN based SLAMs. Our
proposed framework was also able to achieve acceptable results on extreme
simulated cases resembling the challenges mentioned earlier easy.
- Abstract(参考訳): 視覚局在やオドメトリー問題は、自律ロボットや自動車の分野でよく知られた課題である。
伝統的に、この問題はライダーのような高価なセンサーの助けを借りて対処することができる。
近年,カメラやimusなどの経済センサを用いたロバストな位置決めに関する研究が盛んである。
これらのセンサーに基づく幾何学的手法は、不安定な照明と動的物体の無い通常の条件ではかなり良い。
これらの手法は、このような困難な環境において大きな損失と分散を被る。
研究者たちはこの問題を緩和するためにディープニューラルネットワーク(DNN)を救世主として利用するようになった。
DNNを使うことの背景にある主な考え方は、データ内の問題をよりよく理解し、複雑な条件(例えば、カメラの前の動的オブジェクト、極端な照明条件、トラックを高速に保つなど)を克服することであった。
しかし、これらすべてのシナリオに対する汎用的で堅牢なフレームワークは提供されていない。
本稿では、幾何学的SLAMフレームワークの長所と、DNNの支援による残りの課題を克服するために、幾何学的手法とDNNに基づく手法を組み合わせる。
そのために、Vins-Monoフレームワーク(これまででもっとも堅牢で正確なフレームワーク)を修正し、幾何学的およびエンドツーエンドのDNNベースのSLAMと比較して、TUM-Dynamic、TUM-VI、ADVIO、EuRoCデータセットの最先端結果を実現しました。
提案フレームワークは,先述した課題に類似した極端なシミュレートケースに対して,許容できる結果を得ることができた。
関連論文リスト
- Improving PINNs By Algebraic Inclusion of Boundary and Initial Conditions [0.1874930567916036]
AI for Science」は、AI技術を用いた基本的な科学的問題を解決することを目的としている。
本研究では、トレーニング対象のモデルを単にニューラルネットワークから非線形変換に変更する可能性について検討する。
これにより、損失関数の項数は標準のPINN損失よりも減少する。
論文 参考訳(メタデータ) (2024-07-30T11:19:48Z) - Graph Neural PDE Solvers with Conservation and Similarity-Equivariance [6.077284832583712]
本研究は,保存法則や物理対称性に固執する,高度に一般化可能な新しい機械学習アーキテクチャを提案する。
このアーキテクチャの基礎はグラフニューラルネットワーク(GNN)である。
論文 参考訳(メタデータ) (2024-05-25T11:18:27Z) - Physics-Enhanced Graph Neural Networks For Soft Sensing in Industrial Internet of Things [6.374763930914524]
産業用IoT(Industrial Internet of Things)は、製造業、産業プロセス、インフラ管理を変革している。
高度に信頼性の高いIIoTを実現するには、大量のセンサーをインストールするコスト、既存のシステムにセンサーを組み直す際の制限、センサーの設置を非現実的にする厳しい環境条件などの要因が伴う。
物理の原理をグラフベースの方法論に統合する物理強化グラフニューラルネットワーク(GNN)を提案する。
論文 参考訳(メタデータ) (2024-04-11T18:03:59Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - Towards Nonlinear-Motion-Aware and Occlusion-Robust Rolling Shutter
Correction [54.00007868515432]
既存の手法では、一様速度仮定による補正の精度を推定する上で、課題に直面している。
本稿では,個々の画素の高次補正場を正確に推定する,幾何的回転シャッター(QRS)運動解法を提案する。
提案手法は,Carla-RS,Fastec-RS,BS-RSCの各データセット上で,PSNRの+4.98,+0.77,+4.33を超える。
論文 参考訳(メタデータ) (2023-03-31T15:09:18Z) - DiverGet: A Search-Based Software Testing Approach for Deep Neural
Network Quantization Assessment [10.18462284491991]
量子化は、最も応用されたディープニューラルネットワーク(DNN)圧縮戦略の1つである。
量子化評価のための検索ベースのテストフレームワークであるDiverGetを提案する。
ハイパースペクトルリモートセンシング画像に適用した最先端DNNにおけるDiverGetの性能評価を行った。
論文 参考訳(メタデータ) (2022-07-13T15:27:51Z) - Learning to Solve PDE-constrained Inverse Problems with Graph Networks [51.89325993156204]
科学と工学にまたがる多くの応用分野において、偏微分方程式(PDE)によって定義される制約で逆問題を解決することに興味がある。
ここでは、これらのPDE制約された逆問題を解決するために、GNNを探索する。
GNNを用いて計算速度を最大90倍に向上させる。
論文 参考訳(メタデータ) (2022-06-01T18:48:01Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。