論文の概要: Lightweight Convolutional Neural Network with Gaussian-based Grasping
Representation for Robotic Grasping Detection
- arxiv url: http://arxiv.org/abs/2101.10226v1
- Date: Mon, 25 Jan 2021 16:36:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-15 02:52:42.144666
- Title: Lightweight Convolutional Neural Network with Gaussian-based Grasping
Representation for Robotic Grasping Detection
- Title(参考訳): ガウス型グラッピング表現を用いたロボットグラッピング検出用軽量畳み込みニューラルネットワーク
- Authors: Hu Cao, Guang Chen, Zhijun Li, Jianjie Lin, Alois Knoll
- Abstract要約: 現在の物体検出器は、高い精度と高速な推論速度のバランスを取るのが難しい。
ロボットつかみポーズ推定を行うための効率的かつ堅牢な完全畳み込みニューラルネットワークモデルを提案する。
ネットワークは、他の優れたアルゴリズムよりも桁違いに小さい順序です。
- 参考スコア(独自算出の注目度): 4.683939045230724
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The method of deep learning has achieved excellent results in improving the
performance of robotic grasping detection. However, the deep learning methods
used in general object detection are not suitable for robotic grasping
detection. Current modern object detectors are difficult to strike a balance
between high accuracy and fast inference speed. In this paper, we present an
efficient and robust fully convolutional neural network model to perform
robotic grasping pose estimation from an n-channel input image of the real
grasping scene. The proposed network is a lightweight generative architecture
for grasping detection in one stage. Specifically, a grasping representation
based on Gaussian kernel is introduced to encode training samples, which
embodies the principle of maximum central point grasping confidence. Meanwhile,
to extract multi-scale information and enhance the feature discriminability, a
receptive field block (RFB) is assembled to the bottleneck of our grasping
detection architecture. Besides, pixel attention and channel attention are
combined to automatically learn to focus on fusing context information of
varying shapes and sizes by suppressing the noise feature and highlighting the
grasping object feature. Extensive experiments on two public grasping datasets,
Cornell and Jacquard demonstrate the state-of-the-art performance of our method
in balancing accuracy and inference speed. The network is an order of magnitude
smaller than other excellent algorithms while achieving better performance with
an accuracy of 98.9$\%$ and 95.6$\%$ on the Cornell and Jacquard datasets,
respectively.
- Abstract(参考訳): 深層学習法は,ロボットの把握検出性能の向上に優れた成果を上げている。
しかし,一般物体検出における深層学習法はロボット把持検出には適さない。
現在の物体検出器は、高精度と高速な推論速度のバランスをとるのが難しい。
本稿では,実際の把握シーンのnチャネル入力画像からロボットによる把握ポーズ推定を行うための,効率的で頑健な完全畳み込みニューラルネットワークモデルを提案する。
提案するネットワークは,一段階検出のための軽量な生成アーキテクチャである。
具体的には、Gaussianカーネルに基づく把握表現を導入し、トレーニングサンプルをエンコードし、最大の中央点把握自信の原則を具現化します。
一方、マルチスケール情報を抽出し、特徴の識別性を高めるために、私たちの把握検出アーキテクチャのボトルネックに受容フィールドブロック(RFB)を組み立てます。
また、画素の注意とチャンネルの注意を組み合わせ、ノイズ特性を抑制し、把握対象の特徴を強調して、さまざまな形状やサイズのコンテキスト情報を融合させることに自動的に焦点を合わせます。
CornellとJacquardの2つの公開把握データセットに関する広範な実験は、精度と推論速度のバランスをとる方法の最先端のパフォーマンスを示しています。
ネットワークは、コーネルとジャカードのデータセット上でそれぞれ98.9$\%$と95.6$\%$の精度でより良いパフォーマンスを達成しながら、他の優れたアルゴリズムよりも桁違いに小さい順序である。
関連論文リスト
- SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - Global Context Aggregation Network for Lightweight Saliency Detection of
Surface Defects [70.48554424894728]
我々は,エンコーダ・デコーダ構造上の表面欠陥を簡易に検出するためのGCANet(Global Context Aggregation Network)を開発した。
まず、軽量バックボーンの上部層に新しいトランスフォーマーエンコーダを導入し、DSA(Depth-wise Self-Attention)モジュールを通じてグローバルなコンテキスト情報をキャプチャする。
3つの公開欠陥データセットの実験結果から,提案したネットワークは,他の17の最先端手法と比較して,精度と実行効率のトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2023-09-22T06:19:11Z) - New SAR target recognition based on YOLO and very deep multi-canonical
correlation analysis [0.1503974529275767]
本稿では,異なるCNN層から有効な特徴を適応的に融合させることにより,SAR画像ターゲット分類のためのロバストな特徴抽出手法を提案する。
MSTARデータセットの実験により,提案手法が最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-10-28T18:10:26Z) - Convolutional Deep Denoising Autoencoders for Radio Astronomical Images [0.0]
我々は、最先端の電波望遠鏡の合成画像に、畳み込み復号化オートエンコーダ(Convolutional Denoising Autoencoder)と呼ばれる機械学習技術を適用した。
我々のオートエンコーダは、器用感度の限界でかすかな物体を識別し、抽出する複雑な画像を効果的に識別することができる。
論文 参考訳(メタデータ) (2021-10-16T17:08:30Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Hyperspectral Images Classification Based on Multi-scale Residual
Network [5.166817530813299]
ハイパースペクトルリモートセンシング画像は多くの冗長情報を含み、データ構造は非線形である。
深層畳み込みニューラルネットワークの精度は高いが、訓練に少量のデータを使用すると、ディープラーニング手法の分類精度が大幅に低下する。
ハイパースペクトル画像の小さなサンプルに対して,既存のアルゴリズムの分類精度の低い問題を解くために,マルチスケール残差ネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-26T13:46:52Z) - Resolution Adaptive Networks for Efficient Inference [53.04907454606711]
本稿では,低分解能表現が「容易」な入力を分類するのに十分である,という直感に触発された新しいレゾリューション適応ネットワーク(RANet)を提案する。
RANetでは、入力画像はまず、低解像度表現を効率的に抽出する軽量サブネットワークにルーティングされる。
ネットワーク内の高解像度パスは、"ハード"サンプルを認識する能力を維持している。
論文 参考訳(メタデータ) (2020-03-16T16:54:36Z) - BiDet: An Efficient Binarized Object Detector [96.19708396510894]
本稿では,効率的な物体検出のためのバイナライズニューラルネットワークのBiDetを提案する。
我々のBiDetは、冗長除去による物体検出にバイナリニューラルネットワークの表現能力を完全に活用している。
我々の手法は、最先端のバイナリニューラルネットワークを大きなマージンで上回る。
論文 参考訳(メタデータ) (2020-03-09T08:16:16Z) - Depthwise Non-local Module for Fast Salient Object Detection Using a
Single Thread [136.2224792151324]
本稿では,高速な物体検出のための新しいディープラーニングアルゴリズムを提案する。
提案アルゴリズムは,1つのCPUスレッドと同時に,競合精度と高い推論効率を実現する。
論文 参考訳(メタデータ) (2020-01-22T15:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。