論文の概要: Agile Reactive Navigation for A Non-Holonomic Mobile Robot Using A Pixel
Processor Array
- arxiv url: http://arxiv.org/abs/2009.12796v1
- Date: Sun, 27 Sep 2020 09:11:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 03:54:51.730864
- Title: Agile Reactive Navigation for A Non-Holonomic Mobile Robot Using A Pixel
Processor Array
- Title(参考訳): 画素プロセッサアレイを用いた非ホロノミック移動ロボットのアジャイル反応ナビゲーション
- Authors: Yanan Liu, Laurie Bose, Colin Greatwood, Jianing Chen, Rui Fan, Thomas
Richardson, Stephen J. Carey, Piotr Dudek, Walterio Mayol-Cuevas
- Abstract要約: 本稿では、低コストのプロセッサアレイセンサを用いて、乱雑な環境下で、非ホロノミックな地上車両を予め設定されたゲートの周囲を走行するためのアジャイルな反応性ナビゲーション戦略を提案する。
最小限の計算資源を用いて複数のゲートを高速に走行または回避する小型地上車両を実演する。
- 参考スコア(独自算出の注目度): 22.789108850681146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an agile reactive navigation strategy for driving a
non-holonomic ground vehicle around a preset course of gates in a cluttered
environment using a low-cost processor array sensor. This enables machine
vision tasks to be performed directly upon the sensor's image plane, rather
than using a separate general-purpose computer. We demonstrate a small ground
vehicle running through or avoiding multiple gates at high speed using minimal
computational resources. To achieve this, target tracking algorithms are
developed for the Pixel Processing Array and captured images are then processed
directly on the vision sensor acquiring target information for controlling the
ground vehicle. The algorithm can run at up to 2000 fps outdoors and 200fps at
indoor illumination levels. Conducting image processing at the sensor level
avoids the bottleneck of image transfer encountered in conventional sensors.
The real-time performance of on-board image processing and robustness is
validated through experiments. Experimental results demonstrate that the
algorithm's ability to enable a ground vehicle to navigate at an average speed
of 2.20 m/s for passing through multiple gates and 3.88 m/s for a 'slalom' task
in an environment featuring significant visual clutter.
- Abstract(参考訳): 本稿では,非ホロノミックな地上車両を,低コストプロセッサアレイセンサを用いたクラッタ環境下において予め設定したコースを走行させるための,アジャイルなリアクティブナビゲーション戦略を提案する。
これにより、個別の汎用コンピュータを使用するのではなく、センサーのイメージプレーンに直接マシンビジョンタスクを実行することができる。
最小の計算資源を用いて,複数のゲートを高速で通過または回避する小型地上車両を実演する。
これを実現するために、画素処理アレイのための目標追跡アルゴリズムを開発し、撮像された画像を直接視覚センサに処理し、地上車両を制御するターゲット情報を取得する。
このアルゴリズムは屋外で最大2000fps、室内照明レベルで200fpsで動作する。
センサレベルでの画像処理を行う場合、従来のセンサで発生する画像転送のボトルネックを回避する。
オンボード画像処理とロバストネスのリアルタイム性能を実験により検証した。
実験結果から、地上車両が複数のゲートを通過する場合の平均速度は2.20m/s、視覚的乱雑な環境においては3.88m/sであることがわかった。
関連論文リスト
- NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - Design and Flight Demonstration of a Quadrotor for Urban Mapping and Target Tracking Research [0.04712282770819683]
本稿では,都市マッピング,ハザード回避,目標追跡研究のための画像センサを備えた小型四角形機のハードウェア設計と飛行実証について述べる。
車両には5台のカメラが装備されており、2対の魚眼ステレオカメラが装備されており、ほぼ一方向の視界と2軸ジンバルカメラが装備されている。
Robot Operating Systemソフトウェアを実行するNVIDIA Jetson Orin Nanoコンピュータがデータ収集に使用されている。
論文 参考訳(メタデータ) (2024-02-20T18:06:00Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - A direct time-of-flight image sensor with in-pixel surface detection and
dynamic vision [0.0]
3DフラッシュLIDARは、従来の走査型LIDARシステムに代わるもので、コンパクトなフォームファクターで正確な深度イメージングを約束する。
我々は,64x32ピクセル (256x128 SPAD) dToF イメージラを組込みヒストグラムを用いた画素を用いて,これらの制限を克服する。
これにより出力データフレームのサイズが大幅に小さくなり、10kFPS範囲の最大フレームレートや100kFPSの直接深度読み取りが可能となる。
論文 参考訳(メタデータ) (2022-09-23T14:38:00Z) - GoToNet: Fast Monocular Scene Exposure and Exploration [0.6204265638103346]
リアルタイム環境探索のための新しい手法を提案する。
我々の方法は良い戦術的な決定を下すのに一面(イメージ)しか必要としない。
GotoとLookatと呼ばれる画素が特徴である2つの方向予測が,本手法のコアを構成する。
論文 参考訳(メタデータ) (2022-06-13T08:28:31Z) - People Tracking in Panoramic Video for Guiding Robots [2.092922495279074]
ガイドロボットは、おそらく未知の環境の特定の場所への移動を効果的に行うことを目的としている。
この操作の間、ロボットは、付随する人物を検出し、追跡し、彼女/彼の姿を見失おうとはしない。
360deg Field of View (FoV)は、あらゆるフレームオブジェクトがセンサーから外されたり、遠く離れていなければ、FoVを離れることができないことを保証します。
我々は、視線カメラ用に設計された標準的な人検出・追跡パイプラインであるパノラマビデオに効果的に適応できる一連の手法を提案する。
論文 参考訳(メタデータ) (2022-06-06T16:44:38Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。