論文の概要: Perception and Navigation in Autonomous Systems in the Era of Learning:
A Survey
- arxiv url: http://arxiv.org/abs/2001.02319v4
- Date: Sat, 30 Apr 2022 15:35:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 12:42:53.207673
- Title: Perception and Navigation in Autonomous Systems in the Era of Learning:
A Survey
- Title(参考訳): 学習時代の自律システムにおける知覚とナビゲーション--調査から
- Authors: Yang Tang, Chaoqiang Zhao, Jianrui Wang, Chongzhen Zhang, Qiyu Sun,
Weixing Zheng, Wenli Du, Feng Qian, Juergen Kurths
- Abstract要約: 本稿では,自律システムにおける自我運動知覚,環境知覚,ナビゲーションにおける学習に基づく単眼的アプローチの適用について述べる。
まず,従来の視覚的同時ローカライゼーションとマッピング(vSLAM)ソリューションの欠点を概説し,深層学習技術の統合の必要性を示す。
第2に,深層学習に基づく単眼深度推定を含む,深層学習に基づく視覚的環境認識と理解手法について検討する。
第3に、主に強化学習や深層強化学習を含む学習システムに基づく視覚ナビゲーションに焦点を当てる。
- 参考スコア(独自算出の注目度): 28.171707840152994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous systems possess the features of inferring their own state,
understanding their surroundings, and performing autonomous navigation. With
the applications of learning systems, like deep learning and reinforcement
learning, the visual-based self-state estimation, environment perception and
navigation capabilities of autonomous systems have been efficiently addressed,
and many new learning-based algorithms have surfaced with respect to autonomous
visual perception and navigation. In this review, we focus on the applications
of learning-based monocular approaches in ego-motion perception, environment
perception and navigation in autonomous systems, which is different from
previous reviews that discussed traditional methods. First, we delineate the
shortcomings of existing classical visual simultaneous localization and mapping
(vSLAM) solutions, which demonstrate the necessity to integrate deep learning
techniques. Second, we review the visual-based environmental perception and
understanding methods based on deep learning, including deep learning-based
monocular depth estimation, monocular ego-motion prediction, image enhancement,
object detection, semantic segmentation, and their combinations with
traditional vSLAM frameworks. Then, we focus on the visual navigation based on
learning systems, mainly including reinforcement learning and deep
reinforcement learning. Finally, we examine several challenges and promising
directions discussed and concluded in related research of learning systems in
the era of computer science and robotics.
- Abstract(参考訳): 自律システムは、自身の状態を推測し、周囲を理解し、自律的なナビゲーションを実行するという特徴を持っている。
ディープラーニングや強化学習といった学習システムの応用により、自律システムの視覚ベースの自己状態推定、環境認識とナビゲーション能力は効率的に対処され、自律的な視覚知覚とナビゲーションに関して多くの新しい学習ベースのアルゴリズムが浮上した。
本稿では,エゴモーション知覚,環境認識,自律システムにおけるナビゲーションにおける学習に基づく単眼的アプローチの応用に焦点をあてる。
まず,従来の視覚的同時ローカライゼーションとマッピング(vSLAM)ソリューションの欠点を概説し,深層学習技術の統合の必要性を示す。
次に,深層学習に基づく単眼深度推定,単眼運動予測,画像強調,物体検出,意味セグメンテーション,従来のvslamフレームワークとの組合せなど,深層学習に基づく視覚ベースの環境知覚と理解手法について検討する。
そこで我々は,主に強化学習や深層強化学習を含む学習システムに基づく視覚ナビゲーションに焦点を当てた。
最後に,コンピュータ科学とロボティクスの時代の学習システムについて,いくつかの課題と将来的な方向性について考察し,考察を行った。
関連論文リスト
- Advancing Autonomous Driving Perception: Analysis of Sensor Fusion and Computer Vision Techniques [0.0]
このプロジェクトは、自動運転ロボットの理解とナビゲーション能力の向上に焦点を当てている。
既存の検出と追跡アルゴリズムを用いて、未知のマップ2Dマップへのより良いナビゲーションを実現する方法について検討する。
論文 参考訳(メタデータ) (2024-11-15T19:11:58Z) - Research on the Application of Computer Vision Based on Deep Learning in Autonomous Driving Technology [9.52658065214428]
本稿では、画像認識、リアルタイム目標追跡・分類、環境認識・意思決定支援、経路計画・ナビゲーションにおけるディープラーニングの適用について詳細に分析する。
提案システムでは,画像認識,目標追跡,分類の精度が98%を超え,高い性能と実用性を示す。
論文 参考訳(メタデータ) (2024-06-01T16:41:24Z) - Adaptive User-centered Neuro-symbolic Learning for Multimodal
Interaction with Autonomous Systems [0.0]
機械学習の最近の進歩により、自律システムは物体を知覚し、理解することができるようになった。
人間が提供する明示的な教えと、人間の行動を観察して得られる暗黙的な教えの両方を考慮することが不可欠である。
インプットのタイプや,ループ内の人間とインクリメンタルな学習技術についても検討する。
論文 参考訳(メタデータ) (2023-09-11T19:35:12Z) - Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - Deep Learning for Embodied Vision Navigation: A Survey [108.13766213265069]
身体的視覚ナビゲーション」問題では、エージェントが3D環境をナビゲートする必要がある。
本稿では、総合的な文献調査を提供することで、視覚ナビゲーションの具体的分野における現在の研究の概要を確立することを試みる。
論文 参考訳(メタデータ) (2021-07-07T12:09:04Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z) - A Review on Intelligent Object Perception Methods Combining
Knowledge-based Reasoning and Machine Learning [60.335974351919816]
物体知覚はコンピュータビジョンの基本的なサブフィールドである。
最近の研究は、物体の視覚的解釈のインテリジェンスレベルを拡大するために、知識工学を統合する方法を模索している。
論文 参考訳(メタデータ) (2019-12-26T13:26:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。