論文の概要: Aggressive Perception-Aware Navigation using Deep Optical Flow Dynamics
and PixelMPC
- arxiv url: http://arxiv.org/abs/2001.02307v1
- Date: Tue, 7 Jan 2020 22:33:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 20:45:21.217699
- Title: Aggressive Perception-Aware Navigation using Deep Optical Flow Dynamics
and PixelMPC
- Title(参考訳): 深部光学フローダイナミクスとPixelMPCを用いた攻撃的知覚認識ナビゲーション
- Authors: Keuntaek Lee, Jason Gibson, Evangelos A. Theodorou
- Abstract要約: 我々は,光学フローとロボットダイナミクスを組み合わせた深部光学フロー(DOF)ダイナミクスを導入する。
DOFダイナミクスを用いて、MPCはロボットの計画軌跡に関連画素の予測運動を明示的に組み込む。
DOFの実装はメモリ効率が良く、データ効率が良く、計算コストも安いので、MPCフレームワークでリアルタイムに計算することができる。
- 参考スコア(独自算出の注目度): 21.81438321320149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, vision-based control has gained traction by leveraging the power of
machine learning. In this work, we couple a model predictive control (MPC)
framework to a visual pipeline. We introduce deep optical flow (DOF) dynamics,
which is a combination of optical flow and robot dynamics. Using the DOF
dynamics, MPC explicitly incorporates the predicted movement of relevant pixels
into the planned trajectory of a robot. Our implementation of DOF is
memory-efficient, data-efficient, and computationally cheap so that it can be
computed in real-time for use in an MPC framework. The suggested Pixel Model
Predictive Control (PixelMPC) algorithm controls the robot to accomplish a
high-speed racing task while maintaining visibility of the important features
(gates). This improves the reliability of vision-based estimators for
localization and can eventually lead to safe autonomous flight. The proposed
algorithm is tested in a photorealistic simulation with a high-speed drone
racing task.
- Abstract(参考訳): 近年,機械学習のパワーを活用した視覚制御が注目されている。
本研究では,モデル予測制御(MPC)フレームワークをビジュアルパイプラインに結合する。
本稿では,光流れとロボット動力学を組み合わせた深層光流れ(dof)ダイナミクスを紹介する。
dofダイナミクスを用いて、mpcは、関連するピクセルの予測された動きをロボットの計画軌道に明示的に組み込む。
DOFの実装はメモリ効率が良く、データ効率が良く、計算コストも安いので、MPCフレームワークでリアルタイムに計算することができる。
提案されたPixel Model Predictive Control (PixelMPC)アルゴリズムは、重要な特徴(ゲート)の可視性を保ちながら、ロボットを高速なレースタスクを達成するように制御する。
これにより、位置推定のための視覚ベースの推定器の信頼性が向上し、最終的には安全な自律飛行につながる可能性がある。
提案アルゴリズムは、高速ドローンレースタスクを用いたフォトリアリスティックシミュレーションでテストされている。
関連論文リスト
- Optical Flow Matters: an Empirical Comparative Study on Fusing Monocular Extracted Modalities for Better Steering [37.46760714516923]
本研究は、単眼カメラからのマルチモーダル情報を利用して、自動運転車のステアリング予測を改善する新しいエンドツーエンド手法を提案する。
本稿では,RGB画像と深度補完情報や光フローデータとの融合に着目し,これらのモダリティを早期・ハイブリッド融合技術によって統合する枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-18T09:36:24Z) - Neuromorphic Optical Flow and Real-time Implementation with Event
Cameras [47.11134388304464]
イベントベースのビジョンとスパイクニューラルネットワークの最新の開発の上に構築しています。
我々は、最先端の自己監督型光フロー精度を向上させる新しいネットワークアーキテクチャを提案する。
約2桁の複雑さで高速な光流予測を行う。
論文 参考訳(メタデータ) (2023-04-14T14:03:35Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - PUCK: Parallel Surface and Convolution-kernel Tracking for Event-Based
Cameras [4.110120522045467]
イベントカメラは、動的環境における高速な視覚センシングを保証できるが、ロボットのエゴモーションによって引き起こされる高いデータ速度に追従できる追跡アルゴリズムを必要とする。
本稿では,EROS(Exponential Reduced Ordinal Surface)データ表現を利用してイベント・バイ・イベント処理とトラッキングを分離する新しいトラッキング手法を提案する。
エアホッケーパックが表面を滑り落ちるのをトラッキングするタスクを提案し、将来はiCubロボットを正確に時間通りに目標に到達させることが目的である。
論文 参考訳(メタデータ) (2022-05-16T13:23:52Z) - Visual-Inertial Odometry with Online Calibration of Velocity-Control
Based Kinematic Motion Models [3.42658286826597]
視覚慣性オドメトリー(VIO)は、パワーとペイロードの制約のある自律ロボットにとって重要な技術である。
本稿では,車輪付き移動ロボットの速度制御に基づく運動モデルの統合と校正を行うステレオカメラを用いたVIOの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-14T06:21:12Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - Spatiotemporal Costmap Inference for MPC via Deep Inverse Reinforcement
Learning [27.243603228431564]
目標条件付き時間報酬関数を学習するIRLRLアルゴリズムを提案する。
結果として生じるコストマップは、Model Predictive Controllers (MPC) によってタスクの実行に使用される。
論文 参考訳(メタデータ) (2022-01-17T17:36:29Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。