論文の概要: A Review on Visual-SLAM: Advancements from Geometric Modelling to
Learning-based Semantic Scene Understanding
- arxiv url: http://arxiv.org/abs/2209.05222v1
- Date: Mon, 12 Sep 2022 13:11:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:51:34.445549
- Title: A Review on Visual-SLAM: Advancements from Geometric Modelling to
Learning-based Semantic Scene Understanding
- Title(参考訳): Visual-SLAM:幾何学的モデリングから学習に基づくセマンティックシーン理解への展開
- Authors: Tin Lai
- Abstract要約: 自律移動ロボットの基本問題の一つに、同時局所マッピング(SLAM)がある。
Visual-SLAMは、地図の表現を収集し、検知するために、移動ロボットから様々なセンサーを使用する。
ディープラーニング技術などのコンピュータビジョンの最近の進歩は、Visual-SLAM問題に対処するためのデータ駆動型アプローチを提供してきた。
- 参考スコア(独自算出の注目度): 3.0839245814393728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simultaneous Localisation and Mapping (SLAM) is one of the fundamental
problems in autonomous mobile robots where a robot needs to reconstruct a
previously unseen environment while simultaneously localising itself with
respect to the map. In particular, Visual-SLAM uses various sensors from the
mobile robot for collecting and sensing a representation of the map.
Traditionally, geometric model-based techniques were used to tackle the SLAM
problem, which tends to be error-prone under challenging environments. Recent
advancements in computer vision, such as deep learning techniques, have
provided a data-driven approach to tackle the Visual-SLAM problem. This review
summarises recent advancements in the Visual-SLAM domain using various
learning-based methods. We begin by providing a concise overview of the
geometric model-based approaches, followed by technical reviews on the current
paradigms in SLAM. Then, we present the various learning-based approaches to
collecting sensory inputs from mobile robots and performing scene
understanding. The current paradigms in deep-learning-based semantic
understanding are discussed and placed under the context of Visual-SLAM.
Finally, we discuss challenges and further opportunities in the direction of
learning-based approaches in Visual-SLAM.
- Abstract(参考訳): SLAMは、ロボットが地図に関して自身を同時に位置づけしながら、これまで見えない環境を再構築する必要がある自律移動ロボットの基本的な問題の一つである。
特にvisual-slamは、移動ロボットの様々なセンサーを使用して地図の表現を収集し、センシングする。
従来、幾何学的モデルに基づく手法はSLAM問題に対処するために用いられてきた。
ディープラーニング技術などのコンピュータビジョンの最近の進歩は、Visual-SLAM問題に取り組むためのデータ駆動型アプローチを提供してきた。
このレビューは、様々な学習手法を用いて、Visual-SLAMドメインの最近の進歩を要約する。
まず、幾何モデルに基づくアプローチの簡潔な概要と、SLAMの現在のパラダイムに関する技術的レビューから始めます。
次に,移動ロボットから知覚入力を収集し,シーン理解を行うための学習に基づくアプローチを提案する。
ディープラーニングに基づく意味理解の現在のパラダイムを議論し、ビジュアルスラムの文脈下に置く。
最後に、Visual-SLAMにおける学習ベースのアプローチの方向性に関する課題とさらなる機会について論じる。
関連論文リスト
- Recent Trends in 3D Reconstruction of General Non-Rigid Scenes [104.07781871008186]
コンピュータグラフィックスやコンピュータビジョンにおいて、3次元幾何学、外観、実際のシーンの動きを含む現実世界のモデルの再構築が不可欠である。
これは、映画産業やAR/VRアプリケーションに有用な、フォトリアリスティックなノベルビューの合成を可能にする。
この最新技術レポート(STAR)は、モノクロおよびマルチビュー入力による最新技術の概要を読者に提供する。
論文 参考訳(メタデータ) (2024-03-22T09:46:11Z) - MOKA: Open-World Robotic Manipulation through Mark-Based Visual Prompting [97.52388851329667]
我々は,自由形式の言語命令で指定されたロボット操作タスクを解決するために,マーキングオープンワールドキーポイントアフォード(Moka)を導入する。
我々のアプローチの中心は、VLMの観測画像と物理世界におけるロボットの行動に関する予測を橋渡しする、コンパクトな点ベースの可測性表現である。
ツールの使用,変形可能な身体操作,オブジェクト再構成など,さまざまなテーブルトップ操作タスクにおけるMokaの性能評価と解析を行った。
論文 参考訳(メタデータ) (2024-03-05T18:08:45Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - Semantic Visual Simultaneous Localization and Mapping: A Survey [18.372996585079235]
本稿ではまず, セマンティックvSLAMの開発について概観し, その強みと相違点に着目する。
次に、意味情報の抽出と関連付け、意味情報の応用、意味vSLAMの利点の3つについて検討する。
最後に,セマンティックvSLAMの今後の発展に向けた青写真を提供する今後の方向性について論じる。
論文 参考訳(メタデータ) (2022-09-14T05:45:26Z) - Panoramic Learning with A Standardized Machine Learning Formalism [116.34627789412102]
本稿では,多様なMLアルゴリズムの統一的な理解を提供する学習目的の標準化された方程式を提案する。
また、新しいMLソリューションのメカニック設計のガイダンスも提供し、すべての経験を持つパノラマ学習に向けた有望な手段として機能する。
論文 参考訳(メタデータ) (2021-08-17T17:44:38Z) - Neural Networks for Semantic Gaze Analysis in XR Settings [0.0]
本稿では,関心量の注釈に必要な時間と情報を最小化する新しい手法を提案する。
画像拡張手法を用いて,仮想モデルに基づく合成データセット上で畳み込みニューラルネットワーク(cnns)を訓練する。
本手法は実環境および仮想環境で評価し,最先端の手法と競合できることを示す。
論文 参考訳(メタデータ) (2021-03-18T18:05:01Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - A Survey on Deep Learning for Localization and Mapping: Towards the Age
of Spatial Machine Intelligence [48.67755344239951]
包括的調査を行い、深層学習を用いた局所化とマッピングのための新しい分類法を提案する。
オードメトリ推定、マッピング、グローバルローカライゼーション、同時ローカライゼーション、マッピングなど、幅広いトピックがカバーされている。
この研究がロボティクス、コンピュータビジョン、機械学習コミュニティの新たな成果を結び付けることを願っている。
論文 参考訳(メタデータ) (2020-06-22T19:01:21Z) - Meta-Learning in Neural Networks: A Survey [4.588028371034406]
本調査では,現代メタラーニングの展望について述べる。
まずメタラーニングの定義について議論し、関連する分野について位置づける。
そこで我々はメタラーニング手法の空間をより包括的に分析する新しい分類法を提案する。
論文 参考訳(メタデータ) (2020-04-11T16:34:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。