論文の概要: Performance Evaluation of Low-Cost Machine Vision Cameras for
Image-Based Grasp Verification
- arxiv url: http://arxiv.org/abs/2003.10167v1
- Date: Mon, 23 Mar 2020 10:34:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 00:50:10.584947
- Title: Performance Evaluation of Low-Cost Machine Vision Cameras for
Image-Based Grasp Verification
- Title(参考訳): 画像ベースGrasp検証のための低コストマシンビジョンカメラの性能評価
- Authors: Deebul Nair, Amirhossein Pakdaman and Paul G. Pl\"oger
- Abstract要約: 本稿では,マシンビジョンカメラを用いた視覚に基づく把握検証システムを提案する。
実験により,選択したマシンビジョンカメラとディープラーニングモデルにより,フレーム精度97%のグルーピングを堅牢に検証できることが実証された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Grasp verification is advantageous for autonomous manipulation robots as they
provide the feedback required for higher level planning components about
successful task completion. However, a major obstacle in doing grasp
verification is sensor selection. In this paper, we propose a vision based
grasp verification system using machine vision cameras, with the verification
problem formulated as an image classification task. Machine vision cameras
consist of a camera and a processing unit capable of on-board deep learning
inference. The inference in these low-power hardware are done near the data
source, reducing the robot's dependence on a centralized server, leading to
reduced latency, and improved reliability. Machine vision cameras provide the
deep learning inference capabilities using different neural accelerators.
Although, it is not clear from the documentation of these cameras what is the
effect of these neural accelerators on performance metrics such as latency and
throughput. To systematically benchmark these machine vision cameras, we
propose a parameterized model generator that generates end to end models of
Convolutional Neural Networks(CNN). Using these generated models we benchmark
latency and throughput of two machine vision cameras, JeVois A33 and Sipeed
Maix Bit. Our experiments demonstrate that the selected machine vision camera
and the deep learning models can robustly verify grasp with 97% per frame
accuracy.
- Abstract(参考訳): タスク完了に成功するための高レベルな計画コンポーネントに必要なフィードバックを提供するため、自律操作ロボットにとって、把持検証は有利である。
しかし、把握検証を行う上での大きな障害はセンサ選択である。
本稿では,画像分類タスクとして検証問題を定式化した,機械ビジョンカメラを用いた視覚ベースの把握検証システムを提案する。
マシンビジョンカメラは、カメラと深層学習推論が可能な処理ユニットで構成されている。
これらの低消費電力ハードウェアの推論はデータソースの近くで行われ、集中型サーバへのロボットの依存度が低下し、レイテンシが低下し、信頼性が向上する。
マシンビジョンカメラは、異なるニューラルアクセラレータを使用してディープラーニング推論機能を提供する。
しかし、これらのカメラのドキュメントから、これらのニューラルアクセラレーションがレイテンシやスループットといったパフォーマンス指標に与える影響は明らかではない。
これらのマシンビジョンカメラを体系的にベンチマークするために,畳み込みニューラルネットワーク(cnn)のエンドツーエンドモデルを生成するパラメータ付きモデル生成器を提案する。
これらの生成されたモデルを使用して、2つのマシンビジョンカメラ、JeVois A33とSipeed Maix Bitのレイテンシとスループットをベンチマークする。
実験では,選択したマシンビジョンカメラとディープラーニングモデルを用いて,フレーム精度97%のグルーピングを堅牢に検証できることを示した。
関連論文リスト
- Learning Robust Multi-Scale Representation for Neural Radiance Fields
from Unposed Images [65.41966114373373]
コンピュータビジョンにおけるニューラルイメージベースのレンダリング問題に対する改善された解決策を提案する。
提案手法は,テスト時に新たな視点からシーンのリアルなイメージを合成することができる。
論文 参考訳(メタデータ) (2023-11-08T08:18:23Z) - Pedestrian detection with high-resolution event camera [0.0]
イベントカメラ(DVS)は、上記の問題に対処するための、潜在的に興味深い技術である。
本稿では,歩行者検出作業における深層学習によるイベントデータ処理の2つの方法の比較を行う。
ビデオフレーム,畳み込みニューラルネットワーク,非同期スパース畳み込みニューラルネットワークの形式で表現した。
論文 参考訳(メタデータ) (2023-05-29T10:57:59Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Markerless Camera-to-Robot Pose Estimation via Self-supervised
Sim-to-Real Transfer [26.21320177775571]
本稿では,オンラインカメラ・ロボット・キャリブレーションと自己監督型トレーニング手法を備えたエンドツーエンドのポーズ推定フレームワークを提案する。
我々のフレームワークはロボットのポーズを解くための深層学習と幾何学的ビジョンを組み合わせており、パイプラインは完全に微分可能である。
論文 参考訳(メタデータ) (2023-02-28T05:55:42Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception [164.93739293097605]
本稿では,検出品質指標(DQI)と呼ばれる新しい評価指標を提案し,カメラを用いた物体検出アルゴリズムの性能を評価する。
我々は,提案したDQI評価指標を予測するために,原画像画素とスーパーピクセルを入力として利用するスーパーピクセルベースのアテンションネットワーク(SPA-NET)を開発した。
論文 参考訳(メタデータ) (2022-03-04T22:16:50Z) - Monitoring and Adapting the Physical State of a Camera for Autonomous
Vehicles [10.490646039938252]
本稿では,データおよび物理モデルに基づくカメラの汎用的・タスク指向型自己維持フレームワークを提案する。
このフレームワークを現実世界の地上車両に実装し、カメラが粗悪な状況に対応するためにパラメータを調整できることを実証する。
われわれのフレームワークは、カメラの健康状態を監視し維持するための実用的なソリューションを提供するだけでなく、より高度な問題に対処するための拡張の基盤としても機能する。
論文 参考訳(メタデータ) (2021-12-10T11:14:44Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - YOLOpeds: Efficient Real-Time Single-Shot Pedestrian Detection for Smart
Camera Applications [2.588973722689844]
この研究は、スマートカメラアプリケーションにおけるディープラーニングに基づく歩行者検出の効率的な展開のために、精度と速度の良好なトレードオフを達成するという課題に対処する。
分離可能な畳み込みに基づいて計算効率の良いアーキテクチャを導入し、層間密結合とマルチスケール機能融合を提案する。
全体として、YOLOpedsは、既存のディープラーニングモデルよりも86%の速度で、毎秒30フレーム以上のリアルタイム持続的な操作を提供する。
論文 参考訳(メタデータ) (2020-07-27T09:50:11Z) - Auto-Rectify Network for Unsupervised Indoor Depth Estimation [119.82412041164372]
ハンドヘルド環境に現れる複雑な自我運動が,学習深度にとって重要な障害であることが確認された。
本稿では,相対回転を除去してトレーニング画像の修正を効果的に行うデータ前処理手法を提案する。
その結果、従来の教師なしSOTA法よりも、難易度の高いNYUv2データセットよりも優れていた。
論文 参考訳(メタデータ) (2020-06-04T08:59:17Z) - Learning a generative model for robot control using visual feedback [7.171234436165255]
本稿では,ロボット制御に視覚フィードバックを取り入れた新しい定式化を提案する。
モデルにおける推論により,特徴のターゲット位置に対応するロボット状態を推測することができる。
本研究では,不正確な制御を行うロボットに対して,握りとタイトな挿入を実行することで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-03-10T00:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。