論文の概要: Active Perception Applied To Unmanned Aerial Vehicles Through Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2209.06336v1
- Date: Tue, 13 Sep 2022 22:51:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 13:50:56.031313
- Title: Active Perception Applied To Unmanned Aerial Vehicles Through Deep
Reinforcement Learning
- Title(参考訳): 深部強化学習による無人航空機へのアクティブ・パーセプション
- Authors: Matheus G. Mateus, Ricardo B. Grando, Paulo L. J. Drews-Jr
- Abstract要約: 本研究は,水面構造物の追跡・認識の問題に取り組むことで,UAVのアクティブな認識に寄与することを目的としている。
本稿では,従来の画像処理技術とDeep-RL(Deep Reinforcement Learning, 深層強化学習)エージェントを用いて,環境を知覚し,不確実性に対処できることを示す。
- 参考スコア(独自算出の注目度): 0.5161531917413708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unmanned Aerial Vehicles (UAV) have been standing out due to the wide range
of applications in which they can be used autonomously. However, they need
intelligent systems capable of providing a greater understanding of what they
perceive to perform several tasks. They become more challenging in complex
environments since there is a need to perceive the environment and act under
environmental uncertainties to make a decision. In this context, a system that
uses active perception can improve performance by seeking the best next view
through the recognition of targets while displacement occurs. This work aims to
contribute to the active perception of UAVs by tackling the problem of tracking
and recognizing water surface structures to perform a dynamic landing. We show
that our system with classical image processing techniques and a simple Deep
Reinforcement Learning (Deep-RL) agent is capable of perceiving the environment
and dealing with uncertainties without making the use of complex Convolutional
Neural Networks (CNN) or Contrastive Learning (CL).
- Abstract(参考訳): 無人航空機(UAV)は、自律的に使用できる幅広い用途のために、目立った存在である。
しかし、彼らは複数のタスクを実行すると感じているものをより深く理解できるインテリジェントなシステムを必要としています。
複雑な環境では、環境を認識し、決定を下すための環境不確実性の下で行動する必要があるため、より困難になる。
この文脈では、アクティブな知覚を用いたシステムは、変位発生時の目標認識を通じて、最高の次の視点を求めることにより、性能を向上させることができる。
本研究は, 動的着陸を行うための水面構造物の追跡・認識の問題に取り組むことにより, UAVのアクティブな認識に寄与することを目的とする。
本稿では,従来の画像処理技術とDeep-RL (Deep Reinforcement Learning) エージェントを用いて,複雑な畳み込みニューラルネットワーク (CNN) やコントラスト学習 (CL) を用いることなく,環境を知覚し,不確実性に対処できることを示す。
関連論文リスト
- Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - Virtual Reality via Object Poses and Active Learning: Realizing
Telepresence Robots with Aerial Manipulation Capabilities [39.29763956979895]
本稿では,動的・非構造環境下での空中操作を進展させる新しいテレプレゼンスシステムを提案する。
提案システムは触覚デバイスだけでなく、ロボットのワークスペースのリアルタイム3Dディスプレイを提供する仮想現実(VR)インターフェースも備えている。
DLRケーブル・サスペンド・エアリアルマニピュレータ(SAM)によるピック・アンド・プレイス、フォース・アプリケーション、ペグ・イン・ホールの70以上の堅牢な実行を示す。
論文 参考訳(メタデータ) (2022-10-18T08:42:30Z) - Visual-Language Navigation Pretraining via Prompt-based Environmental
Self-exploration [83.96729205383501]
本稿では,言語埋め込みの高速適応を実現するために,プロンプトベースの学習を導入する。
我々のモデルは、VLNやREVERIEを含む多様な視覚言語ナビゲーションタスクに適応することができる。
論文 参考訳(メタデータ) (2022-03-08T11:01:24Z) - Interpretable UAV Collision Avoidance using Deep Reinforcement Learning [1.2693545159861856]
自己注意モデルを用いた深部強化学習を用いた自律型UAV飛行を提案する。
気象や環境によってアルゴリズムをテストした結果,従来のDeep Reinforcement Learningアルゴリズムと比較して頑健であることが判明した。
論文 参考訳(メタデータ) (2021-05-25T23:21:54Z) - Robust Deep Reinforcement Learning via Multi-View Information Bottleneck [7.188571996124112]
マルチビュー情報ボトルネック(MIB)の原理に基づく補助目標を提案する。
これにより、未来を予測的かつタスク非関連な気遣いに敏感な学習表現が促進される。
背景が自然な映像に置き換えられた場合でも、視覚制御の課題に対してSOTAの性能を発揮できることを実証します。
論文 参考訳(メタデータ) (2021-02-26T02:24:36Z) - Embodied Visual Navigation with Automatic Curriculum Learning in Real
Environments [20.017277077448924]
NavACLは、ナビゲーションタスクに適した自動カリキュラム学習の方法である。
NavACLを用いて訓練した深層強化学習剤は、均一サンプリングで訓練した最先端エージェントよりも有意に優れていた。
我々のエージェントは、未知の乱雑な屋内環境から、RGB画像のみを使用して意味的に特定されたターゲットへ移動することができる。
論文 参考訳(メタデータ) (2020-09-11T13:28:26Z) - Active Visual Information Gathering for Vision-Language Navigation [115.40768457718325]
視覚言語ナビゲーション(VLN)は、エージェントがフォトリアリスティックな環境の中でナビゲーションの指示を行うためのタスクである。
VLNの重要な課題の1つは、曖昧な指示による不確実性を緩和し、環境の観察を不十分にすることで、堅牢なナビゲーションを行う方法である。
この研究は、人間のナビゲーション行動からインスピレーションを得て、よりインテリジェントなVLNポリシーのためのアクティブな情報収集能力を持つエージェントを提供する。
論文 参考訳(メタデータ) (2020-07-15T23:54:20Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z) - Weakly-Supervised Reinforcement Learning for Controllable Behavior [126.04932929741538]
強化学習(Reinforcement Learning、RL)は、タスクを解決するために行動を取るための学習のための強力なフレームワークである。
多くの設定において、エージェントは、現在解決するよう求められている単一のタスクに対して、不可能なほど大きなタスク空間を放棄しなければならない。
我々は,この意味論的意味のあるタスクのサブスペースを,非意味的な「チャフ」タスクの巨大な空間から自動的に切り離すために,弱い監督を利用するフレームワークを導入する。
論文 参考訳(メタデータ) (2020-04-06T17:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。