論文の概要: Quadrotor Navigation using Reinforcement Learning with Privileged Information
- arxiv url: http://arxiv.org/abs/2509.08177v1
- Date: Tue, 09 Sep 2025 22:56:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.260347
- Title: Quadrotor Navigation using Reinforcement Learning with Privileged Information
- Title(参考訳): 原始情報を用いた強化学習を用いた擬似体ナビゲーション
- Authors: Jonathan Lee, Abhishek Rathod, Kshitij Goel, John Stecklein, Wennie Tabib,
- Abstract要約: 本稿では,大規模障害物を回避するための強化学習に基づく四角形ナビゲーション手法を提案する。
提案手法は,地図を特権情報とヨーアライメント損失として利用し,ロボットを大きな障害物の周りに誘導する。
このアプローチは86%の成功率を実現し,ベースライン戦略を34%上回る結果となった。
- 参考スコア(独自算出の注目度): 4.901668556622818
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a reinforcement learning-based quadrotor navigation method that leverages efficient differentiable simulation, novel loss functions, and privileged information to navigate around large obstacles. Prior learning-based methods perform well in scenes that exhibit narrow obstacles, but struggle when the goal location is blocked by large walls or terrain. In contrast, the proposed method utilizes time-of-arrival (ToA) maps as privileged information and a yaw alignment loss to guide the robot around large obstacles. The policy is evaluated in photo-realistic simulation environments containing large obstacles, sharp corners, and dead-ends. Our approach achieves an 86% success rate and outperforms baseline strategies by 34%. We deploy the policy onboard a custom quadrotor in outdoor cluttered environments both during the day and night. The policy is validated across 20 flights, covering 589 meters without collisions at speeds up to 4 m/s.
- Abstract(参考訳): 本稿では, 効率的な微分可能シミュレーション, 新規損失関数, 特権情報を活用して, 大規模障害物を回避できる強化学習に基づく四角形ナビゲーション手法を提案する。
従来の学習ベースの手法は、狭い障害物を示すシーンではうまく機能するが、ゴール位置が大きな壁や地形でブロックされている場合に苦労する。
対照的に,提案手法では,ToAマップを特権情報として,ヤウアライメントロスを利用してロボットを大きな障害物の周りに誘導する。
このポリシーは、大きな障害物、鋭いコーナー、デッドエンドを含むフォトリアリスティックなシミュレーション環境で評価される。
このアプローチは86%の成功率を実現し,ベースライン戦略を34%上回る結果となった。
昼夜を問わず、屋外に散らばった環境において、カスタムクオータにポリシーを配置する。
この方針は20回の飛行で検証され、最大4m/sで衝突することなく589mをカバーしている。
関連論文リスト
- A General Infrastructure and Workflow for Quadrotor Deep Reinforcement Learning and Reality Deployment [48.90852123901697]
本稿では, エンドツーエンドの深層強化学習(DRL)ポリシーを四元数へシームレスに移行できるプラットフォームを提案する。
本プラットフォームは, ホバリング, 動的障害物回避, 軌道追尾, 気球打上げ, 未知環境における計画など, 多様な環境を提供する。
論文 参考訳(メタデータ) (2025-04-21T14:25:23Z) - RAPID: Robust and Agile Planner Using Inverse Reinforcement Learning for Vision-Based Drone Navigation [9.25068777307471]
本稿では,乱雑な環境下でのアジャイルドローン飛行のための学習型ビジュアルプランナを紹介する。
提案したプランナーは、ミリ秒で衝突のないウェイポイントを生成し、ドローンは、異なる知覚、マッピング、計画モジュールを構築することなく、複雑な環境でアジャイルな操作を実行できる。
論文 参考訳(メタデータ) (2025-02-04T06:42:08Z) - Neural MP: A Generalist Neural Motion Planner [75.82675575009077]
運動計画問題にデータ駆動学習を大規模に適用することで,これを実現する。
提案手法は, シミュレーションの複雑なシーンを多数構築し, モーションプランナーから専門家のデータを収集し, 反応的なジェネラリストポリシーに抽出する。
我々は,4つの異なる環境における64の動作計画タスクについて,その方法の徹底的な評価を行う。
論文 参考訳(メタデータ) (2024-09-09T17:59:45Z) - Learning Speed Adaptation for Flight in Clutter [3.8876619768726157]
動物は自分の運動の速度を自分の能力や観察する環境に適応させることを学ぶ。
モバイルロボットはまた、タスクを効率的に達成するための攻撃性と安全性をトレードオフする能力を示す必要がある。
この研究は、未知の、部分的に観測可能な乱雑な環境において、速度適応の能力を持つ飛行車両を養うことを目的としている。
論文 参考訳(メタデータ) (2024-03-07T15:30:54Z) - RoadRunner -- Learning Traversability Estimation for Autonomous Off-road Driving [13.101416329887755]
我々は、カメラとLiDARセンサーの入力から直接地形変動を予測できるフレームワークであるRoadRunnerと、標高マップを提示する。
RoadRunnerは、センサ情報、不確実性の処理、コンテキスト情報による予測の生成を融合させることで、信頼性の高い自律ナビゲーションを可能にする。
我々は,非構造砂漠環境を通した複数の現実の運転シナリオにおいて,安全かつ信頼性の高いオフロードナビゲーションを実現する上で,ロードランナーの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-29T16:47:54Z) - VAPOR: Legged Robot Navigation in Outdoor Vegetation Using Offline
Reinforcement Learning [53.13393315664145]
本研究では,非構造で密集した屋外環境における自律脚ロボットナビゲーションのための新しい手法であるVAPORを提案する。
本手法は,アクター・クリティカル・ネットワークと実際の屋外植生で収集された任意のデータを用いて,新しいRLポリシーを訓練する。
VAPORの動作は成功率を最大40%向上させ、平均電流消費量を最大2.9%削減し、正規化軌道長を最大11.2%削減する。
論文 参考訳(メタデータ) (2023-09-14T16:21:27Z) - Efficient Ground Vehicle Path Following in Game AI [77.34726150561087]
本稿では,ゲームAIに適した地上車両の効率的な追従経路を提案する。
提案したパスフォロワは,一対一シューティングゲームにおいて,様々なテストシナリオを通じて評価される。
その結果,既存の経路と比較すると,立ち往生するイベントの総数が70%減少した。
論文 参考訳(メタデータ) (2023-07-07T04:20:07Z) - Learning Perception-Aware Agile Flight in Cluttered Environments [38.59659342532348]
乱雑な環境下での知覚に敏感で最小時間飛行を実現するニューラルネットワークポリシーを学習する手法を提案する。
提案手法は認識と制御を密に結合し,計算速度(10倍高速)と成功率に有意な優位性を示す。
本研究では, クローズドループ制御性能を最大50km/hの速さで実機とハードウェア・イン・ザ・ループシミュレーションを用いて実証する。
論文 参考訳(メタデータ) (2022-10-04T18:18:58Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Vision-Based Mobile Robotics Obstacle Avoidance With Deep Reinforcement
Learning [49.04274612323564]
障害物回避は、移動ロボットの自律ナビゲーションのための根本的かつ困難な問題です。
本稿では,ロボットが単一眼カメラにのみ依存しなければならない単純な3D環境における障害物回避の問題を検討する。
データ駆動型エンドツーエンドディープラーニングアプローチとして,障害回避問題に取り組む。
論文 参考訳(メタデータ) (2021-03-08T13:05:46Z) - On Reward Shaping for Mobile Robot Navigation: A Reinforcement Learning
and SLAM Based Approach [7.488722678999039]
本研究では,未知環境下を走行する移動ロボットを対象とした,深層強化学習(DRL)に基づくマップレス経路計画アルゴリズムを提案する。
プランナーは、トレーニング環境の地図のオンライン知識に基づいて、報酬関数を用いて訓練される。
シミュレーション環境で訓練されたポリシーを直接、実際のロボットに転送し、成功させることができる。
論文 参考訳(メタデータ) (2020-02-10T22:00:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。