論文の概要: CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification
- arxiv url: http://arxiv.org/abs/2110.11829v1
- Date: Fri, 22 Oct 2021 15:05:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 15:28:34.080533
- Title: CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification
- Title(参考訳): フレーム分類によるhermesbot自律配送ロボットのcnnに基づく全方位物体検出
- Authors: Saian Protasov, Pavel Karpyshev, Ivan Kalinov, Pavel Kopanev, Nikita
Mikhailovskiy, Alexander Sedunin, and Dzmitry Tsetserukou
- Abstract要約: 予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
- 参考スコア(独自算出の注目度): 53.56290185900837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile autonomous robots include numerous sensors for environment perception.
Cameras are an essential tool for robot's localization, navigation, and
obstacle avoidance. To process a large flow of data from the sensors, it is
necessary to optimize algorithms, or to utilize substantial computational
power. In our work, we propose an algorithm for optimizing a neural network for
object detection using preliminary binary frame classification. An autonomous
outdoor mobile robot with 6 rolling-shutter cameras on the perimeter providing
a 360-degree field of view was used as the experimental setup. The obtained
experimental results revealed that the proposed optimization accelerates the
inference time of the neural network in the cases with up to 5 out of 6 cameras
containing target objects.
- Abstract(参考訳): 移動ロボットには環境認識のための多数のセンサーが含まれている。
カメラはロボットのローカライゼーション、ナビゲーション、障害物回避に不可欠なツールである。
センサから大量のデータを処理するためには、アルゴリズムを最適化したり、かなりの計算能力を利用する必要がある。
本研究では,予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律型屋外移動ロボットを360度視野として実験装置として使用した。
得られた実験結果から,提案手法は対象物体を含むカメラ6台中最大5台において,ニューラルネットワークの推論時間を高速化できることが判明した。
関連論文リスト
- Enhancing Autonomous Navigation by Imaging Hidden Objects using Single-Photon LiDAR [12.183773707869069]
単一光子LiDARを用いたNon-Line-of-Sight(NLOS)センシングによる視認性の向上と自律ナビゲーションの向上を目的とした新しいアプローチを提案する。
本手法は,マルチバウンス光情報を利用することで,移動ロボットを「隅々まで見る」ことを可能にする。
論文 参考訳(メタデータ) (2024-10-04T16:03:13Z) - Neural Implicit Swept Volume Models for Fast Collision Detection [0.0]
本稿では,深層学習に基づく符号付き距離計算の高速化と幾何衝突チェッカーの精度保証を併用したアルゴリズムを提案する。
シミュレーションおよび実世界のロボット実験において、我々のアプローチを検証するとともに、商用ビンピッキングアプリケーションを高速化できることを実証する。
論文 参考訳(メタデータ) (2024-02-23T12:06:48Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device [53.323878851563414]
本稿では,強化学習技術を用いたネットワーク拡張とpruning検索を組み込んだコンパイラ対応統一フレームワークを提案する。
具体的には,リカレントニューラルネットワーク(RNN)を用いて,ネットワークの強化とプルーニングの両面での統一的なスキームを自動で提供する。
提案手法は,モバイルデバイス上でのリアルタイム3次元物体検出を実現する。
論文 参考訳(メタデータ) (2020-12-26T19:41:15Z) - High-Speed Robot Navigation using Predicted Occupancy Maps [0.0]
ロボットがセンサの地平線を越えて広がる空間を高速で予測できるアルゴリズム手法について検討する。
我々は、人間のアノテートラベルを必要とせず、実世界のデータからトレーニングされた生成ニューラルネットワークを用いてこれを実現する。
既存の制御アルゴリズムを拡張し、予測空間を活用することで、衝突のない計画とナビゲーションを高速で改善します。
論文 参考訳(メタデータ) (2020-12-22T16:25:12Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z) - Pose Estimation for Robot Manipulators via Keypoint Optimization and
Sim-to-Real Transfer [10.369766652751169]
キーポイント検出は多くのロボットアプリケーションにとって重要なビルディングブロックである。
ディープラーニング手法は、マーカーのない方法でユーザ定義キーポイントを検出できる。
これらの課題を克服するキーポイントを定義するための,新たな自律的手法を提案する。
論文 参考訳(メタデータ) (2020-10-15T22:38:37Z) - Real-Time Object Detection and Recognition on Low-Compute Humanoid
Robots using Deep Learning [0.12599533416395764]
本稿では、複数の低計算NAOロボットがカメラビューにおける物体のリアルタイム検出、認識、位置決めを行うことを可能にする新しいアーキテクチャについて述べる。
オブジェクト検出と局所化のためのアルゴリズムは,複数のシナリオにおける屋内実験に基づくYOLOv3の実証的な修正である。
このアーキテクチャは、カメラフィードからニューラルネットにリアルタイムフレームを供給し、その結果を使ってロボットを誘導する効果的なエンドツーエンドパイプラインも備えている。
論文 参考訳(メタデータ) (2020-01-20T05:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。