論文の概要: Enhancing Navigational Safety in Crowded Environments using
Semantic-Deep-Reinforcement-Learning-based Navigation
- arxiv url: http://arxiv.org/abs/2109.11288v1
- Date: Thu, 23 Sep 2021 10:50:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 14:48:18.470347
- Title: Enhancing Navigational Safety in Crowded Environments using
Semantic-Deep-Reinforcement-Learning-based Navigation
- Title(参考訳): セマンティックディープ強化学習による群集環境のナビゲーション安全向上
- Authors: Linh K\"astner, Junhui Li, Zhengcheng Shen, and Jens Lambrecht
- Abstract要約: 本研究では,高レベルの障害物情報からオブジェクト固有の安全ルールを学習する意味的な深層強化学習に基づくナビゲーション手法を提案する。
エージェントは、個々の安全距離をセマンティック情報に依存することにより、より安全にナビゲートできることを実証する。
- 参考スコア(独自算出の注目度): 5.706538676509249
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intelligent navigation among social crowds is an essential aspect of mobile
robotics for applications such as delivery, health care, or assistance. Deep
Reinforcement Learning emerged as an alternative planning method to
conservative approaches and promises more efficient and flexible navigation.
However, in highly dynamic environments employing different kinds of obstacle
classes, safe navigation still presents a grand challenge. In this paper, we
propose a semantic Deep-reinforcement-learning-based navigation approach that
teaches object-specific safety rules by considering high-level obstacle
information. In particular, the agent learns object-specific behavior by
contemplating the specific danger zones to enhance safety around vulnerable
object classes. We tested the approach against a benchmark obstacle avoidance
approach and found an increase in safety. Furthermore, we demonstrate that the
agent could learn to navigate more safely by keeping an individual safety
distance dependent on the semantic information.
- Abstract(参考訳): ソーシャルな群衆間のインテリジェントなナビゲーションは、配達、医療、支援といったアプリケーションのためのモバイルロボティクスの重要な側面である。
深層強化学習は保守的なアプローチに代わる計画手法として現れ、より効率的で柔軟なナビゲーションを約束した。
しかし、異なる種類の障害物クラスを利用する非常にダイナミックな環境では、安全なナビゲーションは依然として大きな課題である。
本稿では,高レベルの障害物情報を考慮し,オブジェクト固有の安全ルールを教える,深層強化学習に基づくナビゲーション手法を提案する。
特にエージェントは、危険ゾーンを考慮し、脆弱なオブジェクトクラスの安全性を高めることによって、オブジェクト固有の振る舞いを学習する。
ベンチマーク障害物回避アプローチに対するアプローチを検証した結果,安全性が向上した。
さらに,個々の安全距離をセマンティック情報に依存させることにより,エージェントがより安全に移動できることを実証した。
関連論文リスト
- Defining and Evaluating Physical Safety for Large Language Models [62.4971588282174]
大型言語モデル (LLM) は、ドローンのようなロボットシステムを制御するためにますます使われている。
現実世界のアプリケーションに物理的な脅威や害をもたらすリスクは、まだ解明されていない。
我々は,ドローンの物理的安全性リスクを,(1)目標脅威,(2)目標脅威,(3)インフラ攻撃,(4)規制違反の4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2024-11-04T17:41:25Z) - Evaluation of Safety Constraints in Autonomous Navigation with Deep
Reinforcement Learning [62.997667081978825]
学習可能なナビゲーションポリシとして,セーフとアンセーフの2つを比較します。
安全なポリシは、制約をアカウントに含めますが、もう一方はそうではありません。
安全政策は、よりクリアランスの高い軌道を生成することができ(障害物によらず)、全体的な性能を犠牲にすることなく、トレーニング中に衝突を減らすことができることを示す。
論文 参考訳(メタデータ) (2023-07-27T01:04:57Z) - Holistic Deep-Reinforcement-Learning-based Training of Autonomous
Navigation Systems [4.409836695738518]
Deep Reinforcement Learningは、地上車両の自律的なナビゲーションのための有望なアプローチとして登場した。
本稿では,ナビゲーションスタックの全要素を含む総合的な深層強化学習手法を提案する。
論文 参考訳(メタデータ) (2023-02-06T16:52:15Z) - Do Androids Dream of Electric Fences? Safety-Aware Reinforcement
Learning with Latent Shielding [18.54615448101203]
潜伏遮蔽と呼ばれる高次元環境における安全性を考慮した深層強化学習のための新しいアプローチを提案する。
潜在遮蔽は、モデルベースのエージェントが学習した環境の内部表現を利用して、将来の軌跡を「想像」し、安全でないと見なされるものを避ける。
論文 参考訳(メタデータ) (2021-12-21T19:11:34Z) - Benchmarking Safe Deep Reinforcement Learning in Aquatic Navigation [78.17108227614928]
本研究では,水文ナビゲーションに着目した安全強化学習のためのベンチマーク環境を提案する。
価値に基づく政策段階の深層強化学習(DRL)について考察する。
また,学習したモデルの振る舞いを所望の特性の集合上で検証する検証戦略を提案する。
論文 参考訳(メタデータ) (2021-12-16T16:53:56Z) - Adversarial Reinforced Instruction Attacker for Robust Vision-Language
Navigation [145.84123197129298]
自然言語に基づくナビゲーションタスクでは,言語指導が重要な役割を担っている。
より堅牢なナビゲータを訓練し、長い指導から重要な要素を動的に抽出する。
具体的には,航法士が間違った目標に移動することを誤認することを学習する動的強化命令攻撃装置(DR-Attacker)を提案する。
論文 参考訳(メタデータ) (2021-07-23T14:11:31Z) - Connecting Deep-Reinforcement-Learning-based Obstacle Avoidance with
Conventional Global Planners using Waypoint Generators [1.4680035572775534]
深層強化学習は,高動的環境において効率的な動的障害物回避手法として出現した。
深層強化学習を既存のナビゲーションシステムに統合することは、深層強化学習に基づくナビゲーションの明快な性質のため、まだ未開のフロンティアである。
論文 参考訳(メタデータ) (2021-04-08T10:23:23Z) - Towards Deployment of Deep-Reinforcement-Learning-Based Obstacle
Avoidance into Conventional Autonomous Navigation Systems [10.349425078806751]
深層強化学習は、過度に保守的なアプローチを置き換える代替計画方法として登場した。
深層強化学習アプローチは、局所ミニマに対する傾向のため、長距離ナビゲーションには適していません。
本論文では,従来のナビゲーションスタックに深層強化学習に基づくローカルプランナーを組み込んだナビゲーションシステムを提案する。
論文 参考訳(メタデータ) (2021-04-08T08:56:53Z) - Learning to be Safe: Deep RL with a Safety Critic [72.00568333130391]
安全なRLへの自然な第一のアプローチは、ポリシーの動作に関する制約を手動で指定することである。
我々は,タスクと環境の1つのセットで安全であることを学習し,その学習した直観を用いて将来の行動を制限することを提案する。
論文 参考訳(メタデータ) (2020-10-27T20:53:20Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z) - Safety Concerns and Mitigation Approaches Regarding the Use of Deep
Learning in Safety-Critical Perception Tasks [0.0]
ディープラーニングが大規模に自律エージェントに使われていない主な理由は、安全上の懸念である。
ディープラーニングのアプローチは一般的にブラックボックスの振る舞いを示し、安全クリティカルな側面に関して評価することが難しい。
深層学習手法の安全性の議論を容易にするため,検討可能な緩和手法について広範な議論を行い,また,緩和手法がまだ欠落している点を概観する。
論文 参考訳(メタデータ) (2020-01-22T13:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。