論文の概要: Real-Time Object Detection and Recognition on Low-Compute Humanoid
Robots using Deep Learning
- arxiv url: http://arxiv.org/abs/2002.03735v1
- Date: Mon, 20 Jan 2020 05:24:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-08 04:55:32.961501
- Title: Real-Time Object Detection and Recognition on Low-Compute Humanoid
Robots using Deep Learning
- Title(参考訳): ディープラーニングを用いた小型ヒューマノイドロボットのリアルタイム物体検出と認識
- Authors: Sayantan Chatterjee, Faheem H. Zunjani, Souvik Sen and Gora C. Nandi
- Abstract要約: 本稿では、複数の低計算NAOロボットがカメラビューにおける物体のリアルタイム検出、認識、位置決めを行うことを可能にする新しいアーキテクチャについて述べる。
オブジェクト検出と局所化のためのアルゴリズムは,複数のシナリオにおける屋内実験に基づくYOLOv3の実証的な修正である。
このアーキテクチャは、カメラフィードからニューラルネットにリアルタイムフレームを供給し、その結果を使ってロボットを誘導する効果的なエンドツーエンドパイプラインも備えている。
- 参考スコア(独自算出の注目度): 0.12599533416395764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We envision that in the near future, humanoid robots would share home space
and assist us in our daily and routine activities through object manipulations.
One of the fundamental technologies that need to be developed for robots is to
enable them to detect objects and recognize them for effective manipulations
and take real-time decisions involving those objects. In this paper, we
describe a novel architecture that enables multiple low-compute NAO robots to
perform real-time detection, recognition and localization of objects in its
camera view and take programmable actions based on the detected objects. The
proposed algorithm for object detection and localization is an empirical
modification of YOLOv3, based on indoor experiments in multiple scenarios, with
a smaller weight size and lesser computational requirements. Quantization of
the weights and re-adjusting filter sizes and layer arrangements for
convolutions improved the inference time for low-resolution images from the
robot s camera feed. YOLOv3 was chosen after a comparative study of bounding
box algorithms was performed with an objective to choose one that strikes the
perfect balance among information retention, low inference time and high
accuracy for real-time object detection and localization. The architecture also
comprises of an effective end-to-end pipeline to feed the real-time frames from
the camera feed to the neural net and use its results for guiding the robot
with customizable actions corresponding to the detected class labels.
- Abstract(参考訳): 近い将来、ヒューマノイドロボットはホームスペースを共有し、オブジェクト操作を通じて日常的および日常的な活動を支援することを想定しています。
ロボットのために開発されるために必要な基本的な技術のひとつは、オブジェクトを検出し、効果的な操作のために認識し、それらのオブジェクトをリアルタイムに決定できるようにすることだ。
本稿では、複数の低計算NAOロボットがカメラビュー内の物体のリアルタイム検出、認識、位置決めを行い、検出された物体に基づいてプログラム可能な動作を行うことを可能にする新しいアーキテクチャについて述べる。
提案する物体検出と局所化のアルゴリズムは、複数のシナリオにおける屋内実験に基づくyolov3の実証的修正であり、重量が小さく、計算量も少ない。
コンボリューションのための重みの量子化とフィルタサイズの再調整および層配置により、ロボットカメラフィードからの低解像度画像の推論時間が改善された。
YOLOv3は、情報保持率、低い推論時間、リアルタイム物体の検出と位置決めのための高精度なバランスを打つアルゴリズムを選択する目的で、バウンディングボックスアルゴリズムの比較研究を行った後、選択された。
このアーキテクチャはまた、カメラフィードからリアルタイムフレームをニューラルネットワークに供給し、検出されたクラスラベルに対応するカスタマイズ可能なアクションでロボットを誘導する効果的なエンドツーエンドパイプラインを備える。
関連論文リスト
- Accelerating Object Detection with YOLOv4 for Real-Time Applications [0.276240219662896]
畳み込みニューラルネットワーク(CNN)は、ほとんどの問題に対して画像コンテンツとコンピュータビジョンアプローチを認識する強力なツールとして登場した。
本稿では、畳み込みニューラルネットワーク(CNN)のようなディープラーニングとオブジェクト検出フレームワークの簡単な紹介を紹介する。
論文 参考訳(メタデータ) (2024-10-17T17:44:57Z) - Learning Object Properties Using Robot Proprioception via Differentiable Robot-Object Interaction [52.12746368727368]
微分可能シミュレーションは、システム識別の強力なツールとなっている。
本手法は,オブジェクト自体のデータに頼ることなく,ロボットからの情報を用いてオブジェクト特性を校正する。
低コストなロボットプラットフォームにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-04T20:48:38Z) - Tiny Robotics Dataset and Benchmark for Continual Object Detection [6.4036245876073234]
本研究は,小型ロボットプラットフォームにおける物体検出システムの連続学習能力を評価するための新しいベンチマークを導入する。
i)TiROD(Tiny Robotics Object Detection)は、小さな移動ロボットを用いて収集された包括的なデータセットで、さまざまなドメインやクラスにわたるオブジェクト検出の適応性をテストするように設計されている。
論文 参考訳(メタデータ) (2024-09-24T16:21:27Z) - Fast and Accurate Object Detection on Asymmetrical Receptive Field [0.0]
本稿では,物体検出精度を受容場の変化の観点から改善する手法を提案する。
YOLOv5の頭部の構造は、非対称なプール層を付加することによって改変される。
本稿では, 従来の YOLOv5 モデルと比較し, いくつかのパラメータから解析する。
論文 参考訳(メタデータ) (2023-03-15T23:59:18Z) - Object Recognition in Different Lighting Conditions at Various Angles by
Deep Learning Method [0.0]
既存のコンピュータビジョンとオブジェクト検出方法は、ニューラルネットワークとディープラーニングに依存している。
本稿では,検出されたボックスの位置に基づいて,さまざまなオブジェクトの名称を分類することを目的とする。
このモデルの精度は,物体の比率やサンプル数に大きく影響されている。
論文 参考訳(メタデータ) (2022-10-18T06:23:26Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - IFOR: Iterative Flow Minimization for Robotic Object Rearrangement [92.97142696891727]
IFOR(Iterative Flow Minimization for Robotic Object Rearrangement)は、未知物体の物体再構成問題に対するエンドツーエンドの手法である。
本手法は,合成データのみを訓練しながら,散在するシーンや実世界に適用可能であることを示す。
論文 参考訳(メタデータ) (2022-02-01T20:03:56Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - Object Detection and Pose Estimation from RGB and Depth Data for
Real-time, Adaptive Robotic Grasping [0.0]
動的ロボットの把握を目的として,リアルタイム物体検出とポーズ推定を行うシステムを提案する。
提案されたアプローチは、ロボットが物体のアイデンティティとその実際のポーズを検出し、新しいポーズで使用するために正準の把握を適応させることを可能にする。
訓練のためのシステムは、ロボットの手首に取り付けられたグリッパーに対する対象の相対的な姿勢を捉えることで、標準的な把握を定義する。
テスト中、新しいポーズが検出されると、物体の正準的な把握が識別され、ロボットアームの関節角度を調整して動的に適応されます。
論文 参考訳(メタデータ) (2021-01-18T22:22:47Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。