論文の概要、ライセンス

# (参考訳) ガウス型グラッピング表現を用いたロボットグラッピング検出用軽量畳み込みニューラルネットワーク [全文訳有]

Lightweight Convolutional Neural Network with Gaussian-based Grasping Representation for Robotic Grasping Detection ( http://arxiv.org/abs/2101.10226v1 )

ライセンス: CC BY 4.0
Hu Cao, Guang Chen, Zhijun Li, Jianjie Lin, Alois Knoll(参考訳) 深層学習法は,ロボットの把握検出性能の向上に優れた成果を上げている。 しかし,一般物体検出における深層学習法はロボット把持検出には適さない。 現在の物体検出器は、高精度と高速な推論速度のバランスをとるのが難しい。 本稿では,実際の把握シーンのnチャネル入力画像からロボットによる把握ポーズ推定を行うための,効率的で頑健な完全畳み込みニューラルネットワークモデルを提案する。 提案するネットワークは,一段階検出のための軽量な生成アーキテクチャである。 具体的には、Gaussianカーネルに基づく把握表現を導入し、トレーニングサンプルをエンコードし、最大の中央点把握自信の原則を具現化します。 一方、マルチスケール情報を抽出し、特徴の識別性を高めるために、私たちの把握検出アーキテクチャのボトルネックに受容フィールドブロック(RFB)を組み立てます。 また、画素の注意とチャンネルの注意を組み合わせ、ノイズ特性を抑制し、把握対象の特徴を強調して、さまざまな形状やサイズのコンテキスト情報を融合させることに自動的に焦点を合わせます。 CornellとJacquardの2つの公開把握データセットに関する広範な実験は、精度と推論速度のバランスをとる方法の最先端のパフォーマンスを示しています。 ネットワークは、コーネルとジャカードのデータセット上でそれぞれ98.9$\%$と95.6$\%$の精度でより良いパフォーマンスを達成しながら、他の優れたアルゴリズムよりも桁違いに小さい順序である。

The method of deep learning has achieved excellent results in improving the performance of robotic grasping detection. However, the deep learning methods used in general object detection are not suitable for robotic grasping detection. Current modern object detectors are difficult to strike a balance between high accuracy and fast inference speed. In this paper, we present an efficient and robust fully convolutional neural network model to perform robotic grasping pose estimation from an n-channel input image of the real grasping scene. The proposed network is a lightweight generative architecture for grasping detection in one stage. Specifically, a grasping representation based on Gaussian kernel is introduced to encode training samples, which embodies the principle of maximum central point grasping confidence. Meanwhile, to extract multi-scale information and enhance the feature discriminability, a receptive field block (RFB) is assembled to the bottleneck of our grasping detection architecture. Besides, pixel attention and channel attention are combined to automatically learn to focus on fusing context information of varying shapes and sizes by suppressing the noise feature and highlighting the grasping object feature. Extensive experiments on two public grasping datasets, Cornell and Jacquard demonstrate the state-of-the-art performance of our method in balancing accuracy and inference speed. The network is an order of magnitude smaller than other excellent algorithms while achieving better performance with an accuracy of 98.9$\%$ and 95.6$\%$ on the Cornell and Jacquard datasets, respectively.
公開日: Mon, 25 Jan 2021 16:36:53 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Lightweight Gaussian-based Grasping Convolutional Neural Network with for Robotic Grasping Detection Chen 1,2∗, Member, IEEE, Jianjie 軽量ガウス型把持 ロボットグラスピング検出のための畳み込みニューラルネットワーク : Chen 1,2∗, Member, IEEE, Jianjie 0.69
Representation Hu Cao 1, Guang 代表 フ Cao 1, Guang 0.70
Lin 1,4, Alois Lin 1,4, Alois 0.84
IEEE, Knoll 1, IEEE、Knoll 1。 0.72
Zhijun Li3, Senior Member, Zhijun Li3 シニアメンバー。 0.62
Senior Member, IEEE, IEEEの上級メンバー。 0.62
1 1 2 0 2 n a J 5 2 ] V C . 1 1 2 0 2 n a j 5 2 ] v c . 0.82
s c [ 1 v 6 2 2 0 1 . s c [ 1 v 6 2 2 0 1 ] である。 0.80
1 0 1 2 : v i X r a 1 0 1 2 : v i X r a 0.85
Abstract—The method deep of learning has excelachieved lent results in improving performance the grasping robotic of detection. 概要-深層学習の手法は、検出の把握ロボットの性能向上に優れた結果をもたらしました。 0.68
However, the deep learning general in methods used detection. しかし,検出手法の深層学習一般は検出手法を用いていた。 0.66
grasping for suitable are detection object robotic not balance to difficult are detectors object Current modern strike a between high accuracy and fast inference speed. 適切な把握は、困難にバランスが取れない検出対象ロボットは、検出対象 現在の高精度と高速な推論速度の間に衝突する。 0.75
In this paper, we an efficient and robust fully convolutional neural present network model to perform robotic grasping pose estimation The grasping the of image input n-channel from scene. 本論文では,画像入力nチャネルをシーンから把握するロボットつかみポーズ推定を行う,効率的かつ堅牢な完全畳み込みニューラルネットワークモデルを提案する。 0.78
real for generative lightweight a network proposed architecture is Specifically, grasping grasping detection in one stage. real for generative lightweight ネットワークの提案するアーキテクチャは、特に1つの段階での把持検出を把握している。 0.67
a repintroduced resentation based on Guassian kernel is encode to principle training samples, which embodies the of maximum extract multito confidence. グアシアン核に基づく再現された再送は、原理訓練サンプルにエンコードされ、最大抽出多重信頼度を具現化する。 0.63
Meanwhile, grasping point central discriminability, feature enhance and information scale the a block receptive field (RFB) to the bottleneck of is assembled our grasping detection architecture. 一方, 中心的識別性, 特徴強調, 情報スケールの把握により, ボトルネックに対するブロック受容場(RFB)を把握し, 把握検出アーキテクチャを構築した。 0.76
Besides, pixel attention and channel attention are combined to automatically learn to focus sizes and shapes varying information context on of by fusing the highlighting and feature suppressing noise the grasping feature. さらに、画素の注意とチャンネルの注意を組み合わせ、強調表示と特徴抑制ノイズを把握機能と融合させることで、情報コンテキストの異なるサイズや形状のフォーカスを自動的に学習します。 0.73
object Extensive on two public grasping experiments datasets, Cornell and Jacquard demonstrate the state-of-the-art performance of our method in balancing accuracy and inference than smaller of magnitude order is network speed. Object Extensive on two public grasping experiments, Cornell and Jacquard demonstrate the state-of-the-art performance of our method in balance accuracy and inference than small of magnitude order is network speed。 0.87
The other an algorithms, excellent better achieving while with performance accuracy of 98.9% and 95.6% on and Jacquard the Cornell datasets, respectively. もうひとつのアルゴリズムは、パフォーマンスの精度が98.9%、95.6%、それぞれがJacquard the Cornellデータセットである。 0.76
Terms—Efficient Index Grasping Representation, Dimension Attention Fusion, work 用語-効率的な指標把握表現、次元注意融合、作業 0.62
Gaussian-based Module, MultiNeural Net- gaussian-based module, multineural net- 0.69
Detection, Field Convolutional フィールド・コンボリューションの検出 0.75
Grasping Receptive Fully Grasping Receptiveをフルに。 0.53
INTRODUCTION in I. used are widely industrial manufacturIntelligen t robots assembly, robot cooperation, human-robot such ing as fields, robots need an effective and robot welding. イントロダクション I.は広く産業manufacturIntelligen tロボットアセンブリ、ロボット協同、フィールドのような人間ロボット、ロボットは有効で、ロボット溶接を必要とします。 0.59
The automated matask complete placing. 自動マタスクが完了します。 0.73
of the picking and nipulation system to a very simple still Although grasping is action for humans, it is involves for a challenging task robots, which such subsystems is detection Grasping and planning perception, as extection. ピッキングとニップレーションのシステムを非常に単純なものにしますが、把握は人間にとってのアクションですが、そのようなサブシステムは、検出グラッピングと計画認識であるタスクロボットを抽出として関与しています。
訳抜け防止モード: つかむことは人間にとっての行動ですが、非常に単純な静物へのピッキングとニップレーションシステムの。 挑戦的なタスクロボットには そのようなサブシステムは、検出のグラッピングと計画の知覚です。
0.68
and manipulation perform grasping to robots skill a basic for enviroments tasks in the unstructured real of the world. そしてマニピュレーションは、世界の非構造化現実における環境タスクの基本となるロボットに対する把持を行う。 0.74
In order to improve the performance robotic grasping, it is of ∗Guang of author corresponding Chen this work the is Artificial Authors Affiliation: 1Chair Robotics, time Systems, Technische Universit¨at M¨unchen, M¨unchen University, Shanghai, China, of Science , Germany Research China, パフォーマンスロボティクスの把握を改善するため、Chen氏の著者である∗Guang氏の研究は、Artificic Authors Affiliation: 1Chair Robotics, Time Systems, Technische Universit .at M sunchen, M sunchen University, Shanghai, China, China, of Science, German Research China,である。 0.84
and Intelligence Real2Tongji , Germany, and Technology of China, インテリジェンスReal2Tongji, Germany, and Technology of China 0.76
of 3University Institute, M¨unchen 3University InstituteのM オーチェン。 0.72
4Fortiss location the predict algorithm to necessary to develop robust a objects. 4Fortis オブジェクトを堅牢に開発するために必要な予測アルゴリズムを配置する。 0.76
and orientation grasping the of tradibased are mainly works detection grasping Early on algorithm. トラディベースの方向把握は主にアルゴリズム上で早期に検出する作業である。 0.73
However, as tional methods, such serach these algorithms cannot work effectively in complex real scenarios [1]. しかし、条件付き手法として、これらのアルゴリズムは複雑な実シナリオにおいて効果的に機能することはできない [1]。 0.65
In recent years, deep learning-based have achieved methods twodetection. 近年,深層学習に基づく手法が2つの検出法を実現した。 0.63
grasping robotic in results excellent on Based three-dimensional into projected space dimension can be the space to guide the robot to grasp, a five-dimensional grasp configuration is proposed to represent grasp rectangle [2]. 三次元から投影された空間次元に優れたロボットの把持は、ロボットに把持を誘導する空間であり、把持矩形を表すために5次元把持構成が提案されている。 0.71
Due to the simplification of the grasping object dimension, the deep extracting to be can network neural convolutional learn used features mroe suitable for hand-engineered specific tasks than features by taking 2-D images as input. 把持対象次元の簡略化により,ニューラルネットワーク畳み込み学習の深部抽出は,2次元画像を入力として特徴量よりも手作業に適したmroeを特徴とする。 0.74
Many works, such as [3], [4], [5], [6], train the neural network to the predict with one the select and objects, of rectangle grasping the grasp highest probability score from multiple grasp candidate rectangles as the best grasp result. 3], [4], [5], [6] などの多くの作品において、ニューラルネットワークを1つの選択対象とオブジェクトとの予測に訓練し、複数の把握候補矩形から把握可能な最高確率スコアを最良の把握結果として把握する。 0.74
Some one or two-stage deep learning methods [7], [8], [9] have achieved great that perform modified been have detection object in success to grasping task. 1段階または2段階の深層学習手法 [7], [8], [9] は, タスクの把握に成功し, 検出対象の修正を実現した。 0.79
For example, [10] refers to some detection key ideas of Faster RCNN [9] in the field of object detection to carry out robotic grasping from the input RGB-D images. 例えば、[10]は、入力されたRGB-D画像からロボットグルーピングを行うため、オブジェクト検出の分野でFaster RCNN[9]のキーとなるアイデアを指している。 0.81
highimplemented [5], such other works, addition, In [11], as dataset precision grasp on Cornell grasping based detection on the one stage object detection method [7], Although [8]. 一方のステージ物体検出法[7]による検出に基づくコーネル把持におけるデータセット精度把握 [11] では, [8] では, [5] などの高機能 [5] が付加されている。 0.72
these object detection-based methods achieve better accuracy horizontal on based their detection, grasping robotic in design grasp rectangular box for angular detection is not suitable task, and most of them have complex network structure, so it is difficult to achieve a good balance in detection accuracy performance authors the [13], and the improve In [12], speed. これらの物体検出に基づく手法は, 検出に基づいて水平方向の精度を向上し, 角検出のための設計把持矩形箱をロボットに把持することは適切な作業ではなく, ネットワーク構造が複雑であるため, [13] 検出精度と[12] 速度の向上を両立させることは困難である。 0.84
anchor an demploying detection of grasping by oriented box rectangles. 指向性箱長方形による把持検出のアンカー化 0.61
However, the mechanism to match grasp although these methods have achieved some improvement in accuracy or speed, size of network parameters their algorithms the of applications. しかし、これらの手法は精度や速度、ネットワークパラメータのサイズ、アルゴリズムの応用性が改善されているにもかかわらず、把持と合致するメカニズムである。 0.68
for suitable to large is real-time too still be above, To solve these problems a new grasping mentioned representation is proposed by [14]. これらの問題を解決するため、[14] によって新たに把握された表現が提案されている。 0.56
Different from previous works, which used the method of sampling grasping candineural convolutional generated [14] rectangle, date applies grasp which points, to network directly regress simplifies the definition of grasping representation and achieves high real-time performance based on the lightweight architecture. 従来,[14]長方形が生成した音節畳み込みを抽出する手法が用いられてきたのと異なり,ネットワークに直接回帰することで,把握表現の定義が簡単になり,軽量なアーキテクチャで高いリアルタイム性能を実現することができる。 0.76
ideas some utilize [16] [15], of authors the [14], by Inspired Inspiredによる[16][15]、著者の[14]を利用するアイデア 0.64
英語(論文から抽出)日本語訳スコア
robotic to predict segmentation tasks in algorithms of vision Recently, features. 視覚アルゴリズムのセグメンテーションタスクを予測するためのロボット 最近、特徴。 0.72
pixel-wise extracted grasping pose from neural generated the into introduced is the residual structure grasping state-of-the-art achieved which [17], network model datasets. 導入したニューラルネットワークから抽出された画素別把持ポーズは, [17] ネットワークモデルデータセットで達成された残差構造把持状態である。 0.71
Jacquard accuracy detection on Cornell and grasping they take However, they all have a shortcoming that although point center the location with the largest grasping score as the largest the importance the highlight to fail they coordinate, of center grasping probability at the point. しかし、コーネルのジャカード精度の検出と把握には欠点がありますが、ポイントセンターは最大の把握スコアを持つ場所であり、その時点でのセンター把握確率の調整に失敗するハイライトが重要であるという欠点があります。 0.65
In this work, we utilize 2-D Guassian kernel to encode training samples to emphasize that the point position center basis On score. 本研究では,2次元グアシアンカーネルを用いてトレーニングサンプルを符号化し,点位置中心ベースオンスコアを強調する。 0.79
confidence highest with the grasping the grasping representation, of Guassian-based we develop a lightweight generative for robotic grasping pose architecture estimation. 把持表現が最も信頼度が高いグアッシアン系では,ロボット把持構造推定のための軽量な生成器を開発した。 0.62
Referring to the receptive field structure in human receptive a block residual the combine system, we visual and in field module the bottleneck layer to enhance the block feature discriminability and robustness. ヒト受容性aブロックの受容的場構造を参照して、コンバインシステムを残留させ、ボトルネック層を可視化およびインフィールドモジュールで可視化し、ブロック特徴の識別性とロバスト性を高める。 0.68
In addition, in order to reduce the information loss in the sampling process, we fuse process, decoder features depth features with low-level in the attention multi-dimensional use and composed a of network attention network attention pixel and channel network to suppress redundant and highlight meaningful features in features the fusion process. さらに,サンプリングプロセスにおける情報損失を低減するため, ヒューズ処理において, デコーダは注目度が低レベルな深度特徴を多次元的に特徴付けるとともに, ネットワークアテンションネットワークの注目画素とチャネルネットワークで構成され, フューズ処理における重要特徴の冗長化と強調を行う。 0.83
Extensive experiments demonstrate that our performance state-of-the-art achieves algorithm accuracy in datasets grasping the on and inference public Cornell speed small and network parameter size. 大規模実験により,公開コーネル速度を小さく推定し,ネットワークパラメータサイズを推定するデータセットのアルゴリズム精度が得られた。 0.73
Concretely, Jacquard with a contributions the main of this paper are as follows: • representation, grasping Gaussian-based a propose We relects the at center the maximum grasping which score the grasping point location and can improve signigicantly detection accuracy. 具体的には,本論文の主旨であるjacquardについて述べる。 • 表現, 把持ガウス系aは, 把持点位置を得点する最大把持位置を, 中心付近で再現し, 偶発的検出精度を向上させる。 0.70
generative lightweight a We architecture which develope real-time and accuracy detection high achieves running speed with small network parameters. 生成軽量なaweアーキテクチャは、リアルタイムおよび精度検出を高度に開発し、小さなネットワークパラメータで実行速度を達成する。 0.72
A receptive field block module is embedded in the bottlefeature discriminability the network to enhance neck of its attention a multi-dimensional and robustness, and fusion redundant network is suppress and developed to features enhance target features in the process. レセプティブフィールドブロックモジュールは、ネットワークが注意の首を多次元かつ堅牢にするためにボトル機能識別性に組み込まれ、融合冗長ネットワークは、プロセスのターゲット機能を強化するために抑制および開発されています。 0.84
fusion grasping Jacquard public on Evaluation Cornell and the generative the that demonstrate datasets proposed based grasping detection algorithm achieves state-of-the-art performance of speed and detection accuracy. コーネルの評価に関するjacquardとデータセットを示す生成的theの融合把持検出アルゴリズムは、速度と検出精度の最先端の性能を達成する。 0.81
both previous as organized is this rest follows: paper of The works related to the grasp detection are reviewed in section 2. つかみ検出に関する著作の論文は、第2節でレビューされています。
訳抜け防止モード: 前もっても 組織化も あとも あとは : 紙 つかみ検出に関する作業は,第2節で検討する。
0.63
Robotic grasping system is introduced in section 3,. ロボットの把握システムはセクション3で導入されます。 0.69
Detailed description of the proposed grasping detection method is in presented analysis 4. 提案手法の詳細な説明は, 解析結果4に記載されている。 0.71
Dataset section in illustrated section is based Experiments 5. grasping on the public datasets, Cornell and Jacquard are discussed in section 6. 図示セクションのデータセットセクションは、実験5に基づいており、公開データセットを把握して、CornelとJacquardをセクション6で議論する。 0.64
Finaly, we conclude our work in section 7. 最後に、セクション7で作業を完了します。 0.68
• • • II. robotic planar 2D For direction, one strained in rectangle-based oriented • • • II。 ロボット平面2D 長方形を指向する1つの方向 0.83
RELATED WORK is grasp the grasping where divided be can the methods methods representation grasp RELATED WORKは、分割された場所の把握を把握できる方法です。 0.63
coninto and 2 A comparision Fig. コナントと 2 A 比較図。 0.71
1: grasp rectangle-based grasp tact point-based the workflow of model representation, and the contact the using model 1: 長方形に基づく把持tact点に基づくモデル表現のワークフローと使用モデルとの接触 0.86
oriented between the methods of of the methods and representation conthe is top The branch representation. メソッドのメソッドと表現の間を向くcontheは分岐表現のトップである。 0.58
using the oriented rectangle as grasp bottom branch is the workflow of the representation. 方向の長方形を ボトムブランチとして使うのは 表現のワークフローです 0.74
grasp point contact parision Fig. 把握ポイント パリションフィグに連絡してください。 0.51
point-based grasp two grasp of review the ポイントベース把握2 レビューの把握 0.63
the 1. We will representation representations relevant works 1位。 やります 表現に関連する作品 0.57
methods. are below. The presented 方法。 以下です 発表 0.49
comin A. grasp representation rectangle-based oriented of Methods appropriate find detection the to is grasping of The goal for visual through the information of the robot grasp pose provide as to reliable perception object, grasping the so planning and control process, and subsequent information for topic a grasp. コミン A。 ロボット把握ポーズの情報による視覚目標の把握を適切に検出する方法の把握表現長方形の指向性は、信頼性の高い認識対象として提供し、そのような計画制御過程を把握し、その後のトピックA把握のための情報を提供する。 0.62
successful achieve studied is Grasp widely the of in field robotics, and approaches used can be the summmarized as anlytic methods and empirical methods. 成功した達成はフィールドロボティクスで広く理解され、分析法や経験的手法として使われるアプローチは要約することができる。 0.63
The physical analytical methods use mathematical and models in out and motion geometry, calculation the to dynamics carry but is solid, for grasping [18]. 物理解析法では, 運動幾何学における数学的, モデルを用いて, 運動力学の計算を行うが, 固体である [18] の把握を行う。 0.71
Its theoretical foundation the deficiency lies in that the model between the robot manipulator 3-dimensional and the grasping object in the real world is high the model with very to difficult and complex, realize is it not methods precision. その理論的な基礎は、ロボットマニピュレータの3次元と現実世界の把握対象の間のモデルが、非常に困難で複雑なモデルであることにある。
訳抜け防止モード: その理論的基礎 不足は、ロボットマニピュレータの3次元間のモデルが 実世界の把握対象はモデルが高いので、非常に困難で複雑です。 方法の正確さではないことに気付きます。
0.71
In contrast, empirical strictly rely do on real-world modeling methods, and utilize data some works information from known objects to build models to predict the grasp new [20], [19], objects of grasping A [21]. 対照的に、実証的は現実世界のモデリング手法に厳密に依存しており、既知のオブジェクトからの情報を使用してモデルを構築し、新しい[20]、[19]、Aをつかむオブジェクト[21]を予測します。 0.78
new pose representation is proposed in [22], where a simplified fivedimensional oriented rectangle grasp representation is used to the seven-dimensional grasp pose consisting of replace closing opening and orientation location, 3D and the 3D rectangles the gripper. 22]において,閉口位置と方位位置とを置き換えた7次元把持ポーズに対して,簡易な5次元指向矩形把持表現を用い,グリッパーを3次元長方形とする新しいポーズ表現を提案する。 0.81
Based the distance of plate on oriented deep grasp configuration, the learning approaches can be successfully applied to grasping detection task, which the regression-based mainly include classification-based methods, [23]. プレートの遠距離を指向した深層把握構成に基づき、回帰ベースは主に分類に基づく方法を含む検出タスクの把握に学習アプローチをうまく適用することができます[23]。 0.86
detection-based methods and methods Classification-based Methods: A first learning-based deep [2], robotic grasing method is presented in the detection two-step authors using a casachieve results by excellent grasping [24], In networks. 検出に基づく手法と手法の分類に基づく手法:ネットワークにおける優れた把握 [24] によるカサチーブ結果を用いて、第1の学習に基づくdeep [2],robotic grasing法を検出2段階の著者に提示する。 0.78
deep with structure caded two proposals are by estimated sampling grasping locations and adjacent image patches. 深層構造を持つ2つの提案は、サンプリング把持位置と隣接する画像パッチによるものである。 0.63
The grasp orientation is predicted by dividing angle into 18 disccrete angles. 角度を18の分断角度に分割して把持方向を予測する。 0.76
Since grasping Dex-Net called database simulation large a scant, is dataset データベースシミュレーションと呼ばれるDex-Netを大規模に把握することは、データセットである 0.60
英語(論文から抽出)日本語訳スコア
is built in On the は 建立 で オン はあ? 0.63
[25]. a 2.0, Dex-Net 2.0 Graspof basis developed (GQ-CNN) Quality Covolutional Neural Network is to classify the potential grasps. [25]. A 2.0, Dex-Net 2.0 Graspof basis (GQ-CNN) Quality Covolutional Neural Networkは潜在的な把握を分類する。 0.73
Although the network is trained the in proposed method the on still works well synthetic data, robotic classification-based world. ネットワークは提案手法で訓練されているが、ロボット分類に基づく世界である合成データはまだうまく機能している。 0.69
Moreover, real grasping a spatial detection with (STN) is transformer network method proposed The results evalating on Cornell grasping in [26]. さらに, [26] のコーネル把持実験において, (stn) isトランスネットワーク法を用いて実空間検出を行う方法を提案した。 0.70
of STN algorithm peforms that indicate dataset their multi-stage detection method grasping on based well. よく把握した多段検出方法のデータセットを示すSTNアルゴリズムのpeforms。 0.70
The classification is a more direct and reasonable method, many of which aspects are worth further study. 分類はより直接的かつ合理的な方法であり、その多くはさらに研究する価値がある。 0.74
Regression-based Methods: Regression-based methods is parameters grasp predict to and location directly of orientation regression-based A first training single shot by a model. 回帰ベースの方法:回帰ベースの方法は、モデルによる最初のトレーニングシングルショットの方向回帰ベースの予測と位置を直接把握するパラメータです。 0.71
grasping detection approach proposed in [3], in which the is real-time achieve and feature extract to AlexNet use authors the removing performance by process of searching potential grasps. AlexNet にリアルタイム達成と特徴抽出を行う [3] で提案された検出アプローチの把握には、潜在的な把握の探索プロセスによる削除性能を使用します。 0.81
Combing RGB and depth data, a multi-modal fusion method is introduced in [27]. rgbと深度データを組み合わせて、[27]にマルチモーダル融合法を導入する。 0.76
With fusing RGB and the regress directly proposed method the features, depth grasp on accuracy detection grasping parameters the and improve dataset. RGBとregressを直接提案した手法により,精度検出パラメータの深度把握とデータセットの改善を実現した。 0.83
the Cornell grasping Similar to [27], the authors of [28] use ResNet as backbone to integrate RGB and depth information and further improves the performance of grasping based method detection graping addition, In detection. コーネルグルーピング [27] と同様に,[28] の作者は,ResNet をバックボーンとして使用して RGB と深度情報を統合し,さらにグルーピングに基づくメソッド検出のグラッピング加算の性能を改善する。 0.83
on a proposed ROI (Region of Interest) is in [21]. 提案されたROI(Region of Interest)は[21]にある。 0.76
In this work, the authors regress grasp pose on ROI features and achieve better performance in object overlapping challenge scene. この作業では、著者らはROIの特徴を把握し、オブジェクト重なり合うチャレンジシーンでより良いパフォーマンスを達成する。 0.64
The regression-based disadvantage its is method is but effective, the mean it the that is more incilined to learn value of ground truth grasps. 回帰に基づくデメリットは、その方法が効果的である一方で、基礎的真理の価値を学ぶことがよりインシリンドであることを意味する。 0.63
Detection-based Methods: detection-based methods Many as such detection, from object key to refer anchor ideas some the on of boxes, knowledge box. 検出に基づくメソッド: 検出のような検出ベースのメソッド、オブジェクトキーからアンカーアイデアを参照する知識ボックスなど。 0.70
Based prior these anchor the regression problem of grasping parameters simplified. これらのアンカーに先立って、把持パラメータの回帰問題を単純化した。 0.54
is In [29], vision and tactile sensing are fused to build a hybrid arbox use authors robotic for chitecture anchor grasping. 29]では、視覚と触覚センシングが融合して、キテクチュアアンカーの把持にロボットを用いたハイブリッドarboxを構築している。 0.74
The to orientation do axis grasp is predicted consideraligned and by ing grasp angle estimation classification problem. トオリエントド軸把握を考慮し、グリップ角推定分類問題を入力して予測する。 0.58
The grasp as angle estimation methods used in [29] is extened by [10]. 29]で使われる角度推定法としての把持を[10]で拡張する。 0.71
By problem, estimation angel transforming classification into the [10] detection high of grasping the method achieves accuracy Different on Cornell dataset based on from FasterRCNN [9]. 問題として,この手法を把握した [10] 検出高に推定したエンジェル変換分類は,高速rcnn [9] からのコーネルデータセットによる精度の違いを実現する。 0.72
the horizontal anchor box used in object detection, the authors mechanism box oriented an design [12] of anchor specially of performance and task grasping for improve the model network. 目的の検出で使用される横のアンカー箱、著者のメカニズム箱はモデル ネットワークを改善するために性能およびタスク把握のアンカーの設計[12]を特に向けました。 0.78
neural end-to-end convolutional by combing fully of the method extend Morever, [30] further [12] and proposes a deep neural network architecture better on the that performs dataset. 完全なメソッドを組み合わせたニューラルネットワークの畳み込みは、Moreverを[30]さらに[12]に拡張し、データセットを実行する上でより優れたディープニューラルネットワークアーキテクチャを提案する。 0.66
Jacquard B. contact of Methods representation The grasping robotic used widely grasping in the grasping plate real task, information to perform the grasping point-based contact fied ジャカード B。 メソッド表現の接触 つかみ板の実際のタスクで広く把握されているつかみロボット、把握点ベースの接触fiedを実行するための情報。 0.61
grasp point-based representation rectangle oriented on based is detection the task. ポイントベースの表現長方形を把握し、タスクを検知する。 0.66
In terms of gripper does not need so much grasping action. グリッパーの点ではそれほど把握の行為を必要としません。 0.53
A new simpliintroduced is representation 新しいsimpliintroducedは表現です。 0.66
3 point, oriented quality, center grasp in of consists [14], which representation, grasp width. 3 点,指向性,中心把握度は,[14]の表現からなり,その幅を把握できる。 0.78
Based grasping on angle this and the grasping to are GGCNN and GGCNN2 developed predict performance excellent achieve their and pose, in methods [14], Refer speed. GGCNN と GGCNN2 が開発した予測性能は, この角度の把握と把握に基づいて, 精度, 姿勢, 手法, 手法, 14] に優れていた。 0.76
to both accuracy and inference detection a fully improved the grasping detection performance is by convolutional neural network with pixel-wise way in [15]. 精度と推論の検出の両方に完全に改善された把握検出性能は[15]のピクセル方向の畳み込みニューラルネットワークによるものです。 0.80
generative input, data depth take and Both as [14] a [15] residual convolutional neural network proposed in [17] is to generate grasps, which take n-channel images as input. 生成入力、データ深度取得、および[14]として[17]で提案された残差畳み込みニューラルネットワークは、入力としてnチャネル画像を取得するグリップを生成する。 0.80
Recently, the authors of [16] take some ideas from image detecgrasping robotic three-finger perform to segmentation tion. 最近、[16]の著者は、画像検出ロボット3本指からセグメンテーションにいくつかのアイデアを取ります。 0.64
Similar to [16], a orientation attentive grasp synthesis (ORANGE) framwork is developed in [31], which achieves better results on Jacquard dataset based on the GGCNN and Guassian-based we paper, this In Unet a propose model. 16]と同様に、GGCNNとGuassianベースの論文に基づいてJacquardデータセットでより良い結果を達成するオリエンテーション注意の把握合成(ORANGE)フラムワークが[31]で開発され、このIn Unetは提案モデルです。 0.80
the of grasping representation to highlight importance center point. 重要中心点を強調するために 表現を把握すること。 0.66
We further develop a lightweight architecture generative for robotic grasping detection, which performs well in inference and Cornell datasets, public two on accuracy and speed Jacquard. さらに、ロボットの把握検出のための軽量なアーキテクチャを開発し、推論とコーネルデータセット、精度と速度に関する2つの公開事項でよく機能する。 0.67
In this system settings grasping このシステム設定の把握 0.73
give section, we an illustrate and representation. セクションを与え、説明と表現を行います。 0.60
III. SYSTEM ROBOTIC GRASPING the overview of grasping robotic of Gaussian-based principles the III。 ガウス原理による把持ロボットの概要を把握したシステムロボット 0.72
A. System Setting arm, robot consists system usually a of grasping A robotic order workspace. A。 システム設定アーム、ロボットは、通常ロボット注文ワークスペースをつかむシステムを構成する。 0.80
grasping objects and In sensors, perception grasp task successfully, only not the the complete to grasping subsystem the but obtained, to needs of pose objects of be control and planning is involved. 対象物を把握し、センサ内では、知覚把握タスクが成功し、獲得した完全な知覚サブシステムだけでなく、制御および計画するポーズオブジェクトのニーズも関与する。 0.72
grasping detection part, In we consider limiting the manipulator to the normal direction of the workspace so that it becomes a goal for perception in objects grasping the of setting, most this space. 検出部分の把握では、作業空間の通常の方向へのマニピュレータの制限を検討し、設定の把握対象の知覚の目標となるようにします。
訳抜け防止モード: 把持検出部、 マニピュレータを作業空間の正常な方向に限定して これは、ほとんどの空間において、設定を把握している物体における知覚の目標となる。
0.80
2D Through as considered objects can be flat by placing them reasonably on the workbench. 2D ワークベンチに適宜配置することで、考慮されたオブジェクトをフラットにすることができる。 0.62
Instead building 3D point cloud data, of the whole grasping system can reduce the cost of and storage grasp capacity. 3dポイントクラウドデータを構築する代わりに、全体把握システムによって、コストとストレージ把握能力が削減される。
訳抜け防止モード: その代わりに、把握システム全体の3Dポイントクラウドデータを構築する コストを削減し 容量を確保できます
0.80
The operation its improve and calculation pose size rectangle. 操作が改善され、ポーズサイズ矩形が計算される。 0.67
as treated of objects can be flat a Since the of simplified each plate gripper is fixed, we use a grasping representation mentioned in section II-B to perform grasp pose estimation. 各プレートグリッパーが固定されているので、被処理物aを平らにすることができるので、第ii-b節で述べた把持表現を用いて把持ポーズ推定を行う。 0.59
B. grasp representation Gaussian-based of information images or depth For RGB given different how learn should system detection grasping the objects, to tasks. B。 把握表現 gaussian-based of information images or depth for rgb では,学習が対象を把握したシステム検出をタスクに与える方法が異なる。 0.76
subsequent for grasp optimal obtain configuration the based are [12], as Many works, such [29], [10], on fivedimensional grasping representation to generate grasp pose. その後の把握最適取得構成は、[29],[10]のような多くの作品が5次元の把握表現をベースとして、把握ポーズを生成するため、[12]となる。 0.62
g = {x, y, θ, w, h} (1) point, where, center the coordinates the of is θ (x, y) represents rectangle, grasping orientation of and the the the by denoted are rectangle grasping the of height and weight g = {x, y, θ, w, h} (1) 点では、中心の座標が θ (x, y) で長方形、把持方向、指示された値が長方形であり、高さと重さを把握している。 0.82
英語(論文から抽出)日本語訳スコア
used frequently detection, in object is box (w, h). 頻繁に検出されるオブジェクトは、box (w, h) である。 0.80
Rectangular detection the size of task. 長方形の検出タスクのサイズ。 0.73
As grasping for not is it but suitable representation simplified a known variable, is usually gripper a introduced is robotic real-time high-precision, [14] in for for representation The grasping. 既知変数を単純化した適切な表現でありながら、通常、導入されるグリッパーはロボット実時間高精度であり、[14]は把持を表す。
訳抜け防止モード: つかむことは不適切な表現である 既知の変数を単純化し、通常、導入されるグリッパーは、ロボットリアルです -時高 precision, [ 14 ] in for representation The grasping
0.78
new grasping 3-D pose is defined as: 新しい3次元ポーズは次のとおりである。 0.59
g = {p, ϕ, w, q} is coordinates Cartesian location point center in where, the p = (x, y, z). g = {p, φ, w, q} は、p = (x, y, z) の座標カルテス位置点中心である。 0.78
the rotation are gripper of and the angle ϕ w and distance of closing axis and the opening around the z five-dimensional Sicne the grasping respectively. 回転はグリッパーであり、角度φ wと閉軸の距離とz5次元シクネの周りの開口部はそれぞれ把握する。 0.75
the gripper, representation lacks the scale factor to evaluate the grasping scale as representation new added is quality, to the a to q probability measure the success. グリッパー、表現は新しく加えられる表現が質であるように把握のスケールを評価するスケール ファクターを、a から q の確率測定の成功に欠けています。
訳抜け防止モード: グリッパーや表現には スケールファクターが欠如しています 新たな表現として捉える尺度を評価する a から q の確率は成功を測る質です。
0.71
of grasp In addition, the definition of the new grasping representation in 2-D space can be described as, さらに、2次元空間における新しい把持表現の定義は、次のように記述することができる。 0.74
(2) ˆϕ, ˆw, ˆq} ˆg = {ˆp, image in center the represents the point where, ˆp = (u, v) ˆϕ denotes frame. (2) ˆϕ, 中心の画像は、点を表す点であり、ここでは、(u, v) φ はフレームを表します。 0.79
camera the orientation the in coordinates. 方向をカメラして 座標を測れ 0.71
ˆw represent the opening and closing distance of the and still ˆq the grasp quality, respectively. w は、それぞれ開口距離と閉距離を表し、依然として把握品質を表す。 0.66
When we know the gripper and pose the system, grasping of result calibration can grasp the coordinates converted be to the world by matrix operation, g グリッパーを知ってシステムにポーズすると、結果の校正の把握は行列演算により世界への変換された座標を把握できる。 0.75
(3) ˆg g = TRC(TCI (ˆg)) (3) シュグ g = TRC(TCI(tg)) 0.73
(4) as: where, the camera camera the image space (4) as: カメラのカメラは 画像空間を 0.77
represent transform and the matrices of TCI TRC and the world frame to frame 2-D image space to respectively. TCI TRCとワールドフレームの変換と行列を表して、それぞれ2次元画像空間をフレーム化する。 0.77
Moreover, frame the in grasp map the denoted is G = {Φ, W, Q} ∈ R3×W×H is filled Φ, W, Q, each pixel maps, in the grasp where, can it way, In values. さらに、イングリップ写像のフレームは G = { , W, Q} ∈ R3×W×H で満たされ、各ピクセル写像は、どのようにして、その方向に進むことができるのかを把握できる。
訳抜け防止モード: さらに、in grab 写像のフレームは g = { φ, である。 w, q } ∈ r3×w×h は φ, w, q、各ピクセルマップは、どこで、それができるのかを、値で把握します。
0.70
corresponding be this with the ˆw, ˆq ˆϕ, subsequent the coordinates that the in center point ensured the pixel for searching process can by be found inference ˆg∗ = max ˆQ ˆG. これに対応するために、次は中心点が探索過程のピクセルを保証した座標であり、その座標は、推測により、g∗ = max sq sg となる。 0.70
In [14], the maximum grasp quality, value of filled a rectangular area around the center point the authors other and quality, grasping highest the indicating 1 with the The pixels were 0. model is trained by this method to learn center the maximum grasp quality of the point. 本手法により、[14]では、著者が中心点付近の長方形領域を埋める最大把持品質、および、その中心点付近の長方形領域を埋める値、および、The画素が0のモデルで示される最上位領域を把握し、その点の最大把持品質を学習する。
訳抜け防止モード: 14 ]では、最大把握品質、中心点付近の矩形領域を埋める値が著者の他と品質である。 The 画素の表示値 1 の最高値は 0 であった。 モデルは この方法で訓練され ポイントの最大の把握品質を 中心的に学ぶこと。
0.74
Because all pixels in the rectangular area have the best grasping quality, point the of importance the that defect a leads it center to the to is not highlighted, resulting the ambiguity model. 長方形領域のすべての画素が把握品質が最も高いため、欠陥 a が点の中心となることの重要性が強調されず、曖昧さモデルが導かれる。 0.74
In this work, we use 2-D Gaussian kernel to regularize the grasping representation to indicate where the object center novel Gaussian-based The 2. 本研究では,2次元ガウス核を用いて把握表現を正規化し,対象中心がガウス的新奇なThe 2を示す。
訳抜け防止モード: 本研究では,2次元ガウス核を用いる。 to regularize the grasping representation to indicate where the object center novel Gaussian - based The 2
0.87
Fig. in shown is as exist, might フィギュア。 示されているのは 存在し 可能性であり 0.50
(5) 4 Fig. (5) 4 フィギュア。 0.71
2: Gaussian-based grasp representation: The 2-D Gaussian highlight to quality map grasp the applied is to kernel the max schematic the (a) point central its quality grasp diof position. 2: ガウスに基づく把握表現: 品質マップ把握における2次元ガウスのハイライトは、(a) 点が中心となる最大回路図をカーネルに配置することである。
訳抜け防止モード: 2 : Gaussian-based grasp representation : 2-D Gaussian highlight to quality map grasp the applied is to kernel the max schematic the ( a ) point central its quality grasp diof position.
0.92
2-D Gaussian after distribution quality weight agram of grasp function grasp diagram of schematic the (b) and deployment, representation. 2次元gaussian after distribution quality weight agram of grab function grab diagram of schematic the (b) and deployment, representation (b) 0.84
the corresponding representation is grasp map はあ? 対応 表現 地図を把握し 0.58
grasping Gaussian-based represented as gk, defined is as: GK = {Φ, W, QK} ∈ R3×W×H where, QK = K(x, y) = exp(− (x − x0)2 2σ2 x where, σx = Tx, σy = Ty grasp quality map is decided by In Eq. ガウスに基づく把握 gk として表され、次のように定義される: GK = { , W, QK} ∈ R3×W×H , QK = K(x, y) = exp(− (x − x0)2 2σ2 x, σx = Tx, σy = Ty grasp quality map は In Eq によって決定される。 0.66
6, generated the σy, parameter the point center (x0, y0), location and σx this method, scale factor and Ty. 6, σy, パラメータ, 点中心(x0, y0), 位置, σx この方法, スケール係数, Ty。 0.74
By the corresponding Tx peak of Gaussian distribution is the center coordinate of grasp rectangle. ガウス分布の対応するTxピークによって、把握長方形の中心座標である。 0.72
In this work, we will discuss the impact section VI-F. in detail in more settings parameter 本研究では、インパクトセクションVI-Fについてより詳細な設定パラメータで論じる。 0.73
− (y − y0)2 2σ2 y − (y − y0)2 2σ2 y 0.90
) (6) the and the the of ) (6) the and the of... 0.75
METHOD IV. argenerative lightweight introduce we section, In a this the 3 presents detection. 方法 IV。 argenerative lightweight introduction we section, a this the 3 presents detection. (英語) 0.73
grasping robotic chitecture for Fig. フィグのためのロボットキテクチュアの把握 0.57
data input is The detection grasping our structure of model. データ入力は、モデルの構造を把握する検出です。 0.83
downsampling transformed by block into feature maps with information. ブロックによって 情報付き 特徴マップに変換された ダウンサンプリング。 0.63
semantic richer and channels size, more smaller resnet bottleneck, the In block and multi-scale receptive fields extract are more block module combined to discriminability and robustness features. セマンティックリッチでチャンネルサイズ、より小型のresnetボトルネック、Inブロックおよびマルチスケールのレセプティブフィールド抽出は、識別性と堅牢性機能を兼ね備えたより多くのブロックモジュールです。 0.68
Meanwhile, multi-dimensional a consisted attention fusion network of pixel attention subis sub-network attention and network channel fuse to used features semantic before shallow and deep upsampling, while and suppressing redundant features enhancing the meaningful features during the fusion process. 一方, 多次元aは, 注目サブネットワーク注意とネットワークチャネルヒューズによる注目融合ネットワークであり, 浅層・深層アップサンプリングの前に特徴セマンティックな特徴を利用するとともに, 融合過程で有意義な特徴を高める冗長な特徴を抑える。 0.75
Finally, the based on added to are sub-networks task-specific four extracted features, and form of angle grasp (the predict quality, cos(2θ)), sin(2θ) and (the opening and closing distance of the gripper) width respectively. 最後に、付加された特徴は、サブネットワークのタスク特有の4つの特徴と、それぞれ角度把握の形式(予測品質、cos(2θ))、sin(2θ)、および(グリッパーの開閉距離)である。
訳抜け防止モード: 最後に、追加されたベースはサブネットワークタスクであり、抽出された4つの機能である。 and form of angle grasp (the predict quality, cos(2θ ) ) sin(2θ ) と (グリップの開閉距離) はそれぞれ 。
0.74
We will illustrate the details each component of network. ネットワークの各コンポーネントの詳細を説明します。 0.74
grasping proposed the of 提案をつかむこと 0.60
英語(論文から抽出)日本語訳スコア
5 the layer, data input covolution multi-dimensional the 5 層だ データ入力コボリューションの多次元化 0.69
and detection downsampling そして 検出ダウンサンプリング 0.71
algorithm. I block, アルゴリズム。 ブロックする。 0.61
and Conv the denote bottleneck そして、Conv。 ボトルネックを表す 0.56
Fig. 4: Receptive フィギュア。 4: 受容 0.60
field block module. フィールド ブロックモジュール。 0.78
convoresults convoresults 0.85
Final lutional can be task-specific final output 最終的な誘惑は タスク固有の最終出力 0.63
of composed 4 The 3x3. size 構成4の3x3。 サイズ 0.80
layer network is kernel with filters given as Eq. レイヤネットワークは、eqとしてフィルタが与えられるカーネルである。 0.59
10. gq = maxq(f 0 conv(xu)), gcos(2θ) = maxq(f 1 conv(xu)), gsin(2θ) = maxq(f 2 conv(xu)), gw = maxq(f 3 conv(xu)), the is point center the where, the of position grasp gq, largest the nates of quality the opening gripper distance of the is gw, and the grasp gangle = arctan( gsin(2θ) by computed )/2. 10. gq = maxq(f 0 conv(xu)), gcos(2 ) = maxq(f 1 conv(xu)), gsin(2 ) = maxq(f 2 conv(xu)), gw = maxq(f 3 conv(xu)), is point center the where, of position holds gq, largest the nates of quality the open Griper distance of the gw, and the grasp gangle = arctan(gsin(2 ) by Computed )/2。 0.75
gcos(2θ) Block Module Receptive Fields Multi-scale have found researchers In neuroscience, there that is a adjusts that cortex visual human the function eccentricity in vision size [33]. gcos(2θ) Block Module Receptive Fields Multi-scale has found researchers in Neuroscience, there is a adjusts the cortex visual human the function eccentricity in vision size [33]。 0.81
of field receptive the of the This mechanism can help to emphasize the importance of the area near the center. この機構の受容性は、中心付近の領域の重要性を強調するのに役立つ。 0.63
In this work, we introduce a multi-scale receptive of layer bottleneck the assemble to [34] (RFB) block field 本研究では [34] (RFB) ブロックフィールドへのアセンブルの層ボトルネックのマルチスケールレセプティブについて紹介する。 0.74
coordiclosing can be coordiclosing (複数形 coordiclosings) 0.39
pixel and angle (10) ピクセルと角度 (10) 0.81
B. 2 grasping of the B。 2 つかむこと 0.67
method upsampling method‐upsampling 0.66
generative consisits block. 生成コンシスティットブロック。 0.47
of our lightweight structure Fig. 3: The proposed The respectively. 軽量構造の図です。 3: それぞれ提案された。 0.68
filter, network and the attention fusion Architecture Network Basic A. grasping generative proposed The architecture composed is the block, the downsampling of the multilayer, bottleneck network fusion dimensional upsampling the attention and of block 3. フィルタ、ネットワークおよび注意の融合の建築ネットワークの基礎 A. 把握の再生的提案 構成されるアーキテクチャは、ブロック、多層のダウンサンプリング、ボトルネックネットワーク融合次元の注目とブロック3のアップサンプリングです。 0.77
A downsampling in shown Fig. 図1に示すダウンサンプリング。 0.72
as block, consists covolution layer with kernel size of 3x3 and maximum pooling 2x2, layer with kernel size of can be represented as which 7. ブロックとして、カーネルサイズが3x3の共進化層と、カーネルサイズが7の最大プール層である2x2で構成されている。 0.71
Eq. conv(f n−1 (7) xd = fmaxpool(f n conv(...f 0 conv(I)...))) In this down-sampling 2 work, use we blocks and conSpecifically, process. eqだ conv(f n−1 (7) xd = fmaxpool(f n conv(...f 0 conv(i)...)) このダウンサンプリング2作業では、weブロックとconspecificlyプロセスを使用する。 0.77
in layers volutional down-sampling the down-sampling convolutional is the first block composed of 4 layers (n = 3) and 1 maximum pooling layer, and the second composed down-sampling layer is of layers (n 2 convolutional down-sampled the layer. 層では、下降サンプリングは、4つの層(n = 3)と1つの最大プール層からなる第1のブロックであり、第2の構成下降サンプリング層は層(n 2の畳み込み下降サンプリング)である。 0.77
1 maximum pooling = and After 1) into fed layers, convolutional 2 through data are a pass they bottleneck layer consisting of 3 residual blocks (k and = 2) 1 receptive fields block module (RFBM) to further extract convolutional scale of composed features. 1 最大プーリング = および 1) を供給層に入力すると、畳み込み 2 は 3 つの残存ブロック (k と = 2) 1 つの受容フィールド ブロック モジュール (RFBM) で構成され、構成された機能の畳み込みスケールをさらに抽出するパスのボトルネック層である。 0.76
Since RFBM is vary details. RFBMは詳細が異なるため。 0.75
More image acquire more can filters, we rich details discussed be about RFBM will in section IV-B. さらなる画像取得では, RFBMについて, 第IV-B節で詳細に検討した。 0.70
The output of the bottleneck can formulated as Eq. ボトルネックの出力はeqとして定式化できる。 0.63
8. be res(f k−1 (8) conv(f 0 (...f 0 xb = fRF BM (f k res(f 1 conv(xd)))...))) res multiinto output is bottleneck the The of fed xb and (MDAFN) dimensional attention fusion network upnetattention multi-dimensional The block. 8. be res(f k−1 (8) conv(f 0 (...f 0 xb = fRF BM (f k res(f 1 conv(xd))))) res multiinto output is bottleneck the The of fed xb and (MDAFN) dimensional attention fusion network upnetattention multi-dimensional ブロック。 0.88
sampling fusion attention attention work of pixel and channel subcomposed network can suppress the feature and enhance the noise effective feature during the fusion of shallow feature and deep in detail more in will The feature. ピクセルおよびチャネルのサブ構成されたネットワークの試供の融合の注意の注意の仕事は特徴を抑制でき、浅い特徴の融合の間に騒音の有効な特徴をおよび深く詳しく高めます。 0.85
illustrated be MDAFN the section IV-C. MDAFN セクション IV-C で示される。 0.74
In upsampling block, pixshuffle layer [32] is used to increase feature resolution with the scale factor set to 2. アップサンプリングブロックでは、ピクスシャッフル層[32]を用いて、スケール係数を2に設定した特徴分解能を高める。 0.66
In this work, the number of multi-dimensional attention upsampling and networks fusion the and 2, both are blocks output can be expressed as Eq. 本研究では,マルチ次元アテンションアップサンプリングとネットワーク融合の回数と,これら2つのブロック出力をEqとして表現することができる。 0.72
9. xu = f 1 9. xu = f 1 0.85
pixshuf f le(f 1 pixshuf f le(f 1) 0.89
M DAF N (f 0 M DAF N (f 0。 0.94
pixshuf f le(f 0 pixshuf f le(f 0) 0.96
M DAF N (xb)))) (9) M DAF N (xb)) (9) 0.70
英語(論文から抽出)日本語訳スコア
6 Fig. 6: Qualitative 6 フィギュア。 6:定性 0.68
images from Cornell grasping 画像 コーネルから つかむ 0.58
dataset. activation corresponding and layers connection the fully two channels, build correlation the Relu to between function channel the outputs weight score of feature the and finally channelpixel-wise the Both operation. データセット。 アクティベーション対応とレイヤー接続を完全に2つのチャンネルで接続し、機能チャンネル間のReluと特徴の出力ウェイトスコアをビルドします。 0.66
sigmoid through and wise feature map F to maps are multiplied with the weight object enhanced obtain a novel output with reduced noise and information. Sigmoid through と wise feature map F to map を乗じて重みオブジェクトを増強し、ノイズと情報を低減した新規な出力を得る。 0.81
D. Function Loss {O1...On}, objects including dataset For a grasping = O {I1...In}, corresponding images input and grasp labels I = {L1...Ln}, We convoluton fully lightweight a propose = L approximate to network neural the complex function F : (cid:55)−→ ˆG, where represents a neural network model with F I ˆG weighted parameters, input image data, and denotes is I mapping the learn to train We prediction. d. function Loss {O1...On}, objects including a dataset For a grasping = O {I1...In}, corresponding image input and grasp labels I = {L1...Ln}, We convoluton fully lightweight a propose = L familiar to network neural to complex function F : (cid:55)−→ shG, where represent a neural network model with F I shed parameters, input image data, andmarks is I map the training We prediction。 0.80
grasp our model by function F optimizing the minimum error between grasp ˆG prediction and the corresponding label L. In this work, we consider the grasp pose estimation as regression problem, L1 the Smooth therefore used is loss regression our as loss detection model function Lr function. 本研究では,把握姿勢推定を回帰問題として,l1 を損失検出モデル関数 lr 関数として,損失回帰として用いる。
訳抜け防止モード: 関数 F でモデルを把握します。 把握と対応するラベルLの間の最小誤差を最適化します。 把握ポーズ推定は回帰問題と考えます 従って使用されるSmooth L1は損失の検出モデル機能Lr機能として私達の損失の回帰です。
0.83
The loss of our grasping is defined as : (cid:88) N(cid:88) m∈{q,cos2θ,sin2θ,w} i (cid:40) formulated as: SmoothL1 |x|<1; if (σx)2/2, |x| − 0.5/σ2, otherwise. 把持の損失は: (cid:88) n(cid:88) m ال{q,cos2θ,sin2θ,w} i (cid:40) と定式化されている: smoothl1 |x|<1; if (σx)2/2, |x| − 0.5/σ2。
訳抜け防止モード: 把握の損失は: ( cid:88 ) N(cid:88 ) m∈{q,} と定義される。 SmoothL1 |x|<1 ; if ( σx)2/2, |x| − 0.5 / σ2 である。
0.81
represent candidates. number grasp of the is q, w distance and opening and quality the closing of the respectively, the and (cos(2θ), sin(2θ)) is form of orifuction, angle. 候補者を代表して q, w 距離と開度と開度はそれぞれの閉度を把握し、(cos(2θ), sin(2θ)) は述語、角度の形式である。
訳抜け防止モード: 候補者を代表して isq,w距離,開口数の個数把握とそれぞれの閉口品質 および ( cos(2θ , sin(2θ ) ) は、オリファクションの形であり、角度 である。
0.62
In SmoothL1 is the hyperparameter this work. SmoothL1では、この作業はハイパーパラメータです。 0.65
in 1 to set it and area, smooth the controls 1 でそれと領域を設定し、制御を滑らかにします 0.76
where N the grasp gripper, entation that グリップ・グリーパーのNと エンテーションです 0.45
SmoothL1( ˆGm i SmoothL1(~Gm i) 0.70
SmoothL1(x) = SmoothL1(x) = 0.99
Lr( ˆG, L) = Lr( ^ G, L) = 0.91
− Lm i where σ is −Lm i どこに σは 0.77
is ) (11) Since datasets, は ) (11) データセットから。 0.76
the such deep as DATASET ANALYSIS そんなの 深く DataSET解析 0.57
V. learning has become COCO, ImageNet, v. learningはcoco、imagenet、 0.61
popular, large have etc, KITTI, 普及した、大きい等、KITTI、あります。 0.54
public been Fig. branch branch 公に フィギュア。 branch + branch 0.55
5: Multi-dimensional is pixel-level is channel-level 5: 多次元はピクセルレベルはチャネルレベル 0.77
attention attention attention attention attention~ 0.80
fusion The network. ネットワークの融合。 0.76
top bottom the and subnetwork, subnetwork. 最下層と下層ネットワーク、下層ネットワーク。 0.62
the the improving for architecture abilthe detection grasping our and information multi-scale the enhancing ity of extracting module block field receptive The dicriminability. その... アーキテクチャの安定化のための改善 我々の情報と、モジュールブロックフィールド抽出の多元性を高めるための情報の把握。 0.49
feature is of multi-branch covolution layers with different composed to kernels corresponding the receptive fields of different sizes. 特徴は、異なるサイズの受容体に対応するカーネルを構成する異なるマルチブランチ共進化層である。 0.76
the Moreover, dilated layer is used to control convolution branches the by extracted features the eccentricity, the and form recombined are fields receptive of different the to the In final representation, as shown in Fig each branch, the 4. convolutional layer with a specific kernel is followed by a size dilated convolutional layer with a corresponding dilation rate, 3x3, (1x1, sizes kernel different combination which a uses of extracted features 7x1, from the branches 1x7). さらに、前記拡張層は、抽出された特徴により、偏心性を制御するために使用され、前記再結合された形状は、各分岐の図に示すように、前記最終表現に異なるフィールドを受容し、前記各分岐に示すように、前記4の特定のカーネルとの畳み込み層に、対応する拡張率3x3,(1x1, sizes kernel different combination that using the extracted features 7x1, from the branch 1x7)のサイズの拡張畳み込み層が続く。 0.73
four are The concatenated and added to the input data to obtain the then final multi-scale feature output. 4 は連結で入力データに追加され、最終的なマルチスケール特徴出力を取得する。 0.80
C. Fusion Network Multi-dimensional Attention image, we don’t pay attention to When look humans at an interesting instead focus on what’s image, but everything in the visual the in system focuses mechanism attention The us. C。 Fusion Network Multi-dimensional Attention image, we don’t attention to we’t attention to Human look an interesting at what’s image, but the visual the in systemのすべてがメカニズムの注意に焦点を当てている。 0.83
to important information, thus saving limited attention on the effective information quickly. 重要な情報に気を配り 有効な情報に 素早く注意を払います 0.75
and obtaining the most resources mechanisms attention some vision, computer In the of field with speed and been few parameters, fast excellent effect have [35], developed [36], [37], [38]. そして最も資源のメカニズムの注意のいくつかの視野、コンピュータを得ます 速度の分野のそして少数の変数では、速い優秀な効果は[36]、開発されました[37]、[38]あります。
訳抜け防止モード: そして最もリソースの少ないメカニズムを得るには、あるビジョンや、スピードのあるフィールドのコンピュータに注意を払います。 パラメータは少なく、速い効果は [35 ] である。 developed [ 36 ], [ 37 ], [ 38 ] .
0.87
In order to perceive the grasping objects effectively from the complex background, a multiattention pixel of composed network attention dimensional designed is subnetwork channel and subnetwork attention to the feature suppress the noise and highlight object feature, as shown in Fig. 複雑な背景から把持対象を効果的に知覚するために、構成されたネットワーク注目次元のマルチアテンション画素をサブネットワークチャネルとし、その特徴に対するサブネットワーク注目を、図に示すようにノイズ及びハイライト対象の特徴を抑制する。 0.79
5. Specificaly, the shallow features and the deep features are together, and the fused concatenated attention a multi-dimensional into are features network fed to features importance of the fused automatically learn the at the pixel level and the channel In pixel attention subnetwork, level. 5. 具体的には、浅い特徴と深い特徴が合わさっていて、多次元の融合した連結された注意は、ピクセルレベルとピクセルアテンションサブネットワークのチャネルを自動的に学習する機能の重要性によって、ネットワークに供給される特徴である。 0.80
the feature map F passes through a 3x3 covolution layer The operation. 特徴写像fは操作を3x3畳み込み層を通過する。 0.70
by an to covolution attention map generate attention map computed with abtain is further sigmoid the to corresponding pixel-wise weight score. Abtainで計算された注目マップを生成するトーボリューションアテンションマップにより、対応する画素単位のウェイトスコアをさらにシグモドープする。 0.66
Moreover, SENet [36] is used as the channel attention subnetwork, which obtains uses then and pooling, average global through 1x1xC features さらに、senet [36] はチャネルアテンションサブネットワークとして使われ、1x1xc 機能を通じて平均的なグローバルな使用とプールを得る。 0.72
英語(論文から抽出)日本語訳スコア
7 Jacquard Grasping Dataset: grasping large is Jacquard a models. 7 Jacquard Grasping Dataset: 大きく把握することはJacquardのモデルです。 0.84
created through simulation CAD on based dataset the no manual is annotation and Because collection required, containing dataset, Cornell than larger is dataset Jacquard the objects grasp 11k 50k and over 1 million labels. ベースデータセット上のシミュレーションCADによって作成されたマニュアルはアノテーションではなく、データセットを含む収集が必要であるため、コーネルはデータセットよりも大きい。 0.57
images of In Fig. In Figの画像。 0.68
7, it presents some images from the Jacquard datset. 7、それはJacquard datsetからいくつかの画像を提示します。 0.64
Furthermore, the dataset also provides a standard simulation trials to environment (SGTs) perform simulated a under grasp different condition algorithms. さらに、データセットは、環境(SGT)に標準的なシミュレーション試験を提供し、未把握の異なる条件アルゴリズムをシミュレートします。 0.75
for consistent In this work, we use SGTs as a benchmark to fairly compare the performance of various algorithms in the robot arm grasp. この研究では、ロボットアームの把握における様々なアルゴリズムのパフォーマンスを公平に比較するために、SGTsをベンチマークとして使用します。
訳抜け防止モード: この作業では、SGTをベンチマークとして使用します。 ロボットアームの把握における様々なアルゴリズムの性能を かなり比較します
0.79
Since the Jacquard large is dataset auguement data any use not do we enough, it. Jacquardはデータセットのオーガメントデータなので、使用しても十分ではありません。 0.71
methods to TABLE I: Description Modality Dataset Depth Dexnet Cornell RGB-D Jacquard RGB-D TABLE I: Description Modality Dataset Dexnet Cornell RGB-D Jacquard RGB-D 0.83
the of Objects 1500 240 11K 1500 240 11k のオブジェクト 0.78
public Grasping Datasets public Grasping Datasets 0.85
Images 6.7M 885 54K Images 6.7M 885 54K 0.65
Grasps 6.7M 8019 1.1M Grasps 6.7M 8019 1.1M 0.53
VI. EXPERIMENT the To verify proposed generalization capability of the generative lightweight on experiments conducted model, we grasping two public datasets, Cornell Extensive Jacquard. VI。 実験を行った実験モデルにおける生成軽量化の検証のために, 2つの公開データセット,cornell extensive jacquardを把握した。
訳抜け防止モード: VI。 実験モデルにおける生成軽量の一般化能力の検証実験 Cornell Extensive Jacquardという2つの公開データセットを把握しています。
0.81
and results experiments inhas indicate that our algorithm high speed ference while achieving high grasp detection accuracy, of magnitude order network size the and is parameters an of addition, algorithms. そして、結果実験では、アルゴリズムの高速推論は、高い把握の検出精度、大きさの順序ネットワークサイズを達成し、さらに、アルゴリズムであることを示す。 0.73
excellent previous than most smaller In different we also explore the network designs on impact of algorithm performance and discuss the shortcomings of our method. また,ネットワーク設計がアルゴリズムの性能に与える影響についても検討し,提案手法の欠点について考察する。 0.68
results detection The Fig. 8: first three The dataset. 結果検出 図。 8: 最初の3 データセット。 0.72
rows and width angle representing gripper. グリッパーを表す行および幅の角度。 0.77
And, of last the the several objects. そして最後に、いくつかのオブジェクト。 0.80
on network grasping of Cornell are the maps grasp for quality, the opening and closing distance for outputs grasp best the row is コーネルのネットワークグルーピングでは、地図が品質を把握し、出力のオープニングとクローズ距離が行を最もよく把握する。 0.65
A. Evaluation Metrics this in metric works, previous to Simillar the used many Jacquard and Cornell the on model our evaluate paper to grasp is Specifically, a pridicted datasets is rectangle metric. A。 評価メトリクス これ メトリックワークでは、simillar the used many jacquard と cornell the on model に先立って、我々が把握する評価論文は、特に、決定されたデータセットは長方形計量である。
訳抜け防止モード: A。 Evaluation Metrics this in metric work, before Simillar the used many Jacquard そして、評価論文を把握するためのモデルであるコーネルは、具体的には、 予測されたデータセットは長方形メートル法です
0.75
two following when regarded a correct grasp it meets the conditions: 正しい把握と見なされる場合、次の2つが条件を満たす。 0.65
Fig. 7: Qualitative フィギュア。 7:定性 0.59
images from Jacquard 画像 ジャカード出身。 0.51
grasping dataset. つかむ データセット。 0.62
algorithms. field in of the However, the driving of progress the grasping available of number grasping robotic detection, Dexnet, Jacquard are and Cornell, is datasets insufficient. アルゴリズム。 しかし、フィールドインでは、数をつかむロボット検出(dexnet、jacquard are、cornell)が利用できる進歩の推進は、データセットが不十分である。 0.66
platform as serve that datasets grasping common famous a performance to of the grasping compare the state-of-the-art Tab. platform は、一般的な有名なパフォーマンスを把握できるデータセットが、最新のタブを比較します。 0.59
detection algorithms. In I, it presents a summary of the different grasping datasets. 検出アルゴリズム。 i では、異なる把持データセットの概要を示す。 0.66
Dataset: Dexnet Grasping (DexThe Dexterity Network UC Auby Berkeley established research Net) a is project for and dataset, algorithms code, tomation that provides Lab released four versions the project has grasping task. Dataset: Dexnet Grasping (DexThe Dexterity Network UC Auby Berkeleyが研究ネットを設立)は、プロジェクトが把握するタスクをLabがリリースした4つのバージョンを提供するデータセット、アルゴリズムコード、トモテーションのためのプロジェクトです。 0.80
At present, Dex-Net 2.0, Dex-Net 1.0, Dex-Net namely dataset, the of a 3.0, 4.0. 現在、Dex-Net 2.0、Dex-Net 1.0、Dex-Netデータセット、つまり3.0.0である。 0.65
Dex-Net 1.0 is dataset and Dex-Net synthetic with over 10000 unique 3D object models and 2.5 million corresponding grasp labels. Dex-Net 1.0は、10000以上のユニークな3Dオブジェクトモデルと2.5百万の対応する把握ラベルを備えたデータセットとDex-Net合成です。 0.55
Based on Dex-Net 1.0, thousands generate more to used are poses arbitrary 3D objects with of which and clouds million 6.7 than constitute ponit grasps, 3.0 Dex-Net the Dex-Net 2.0 dataset. dex-net 1.0 をベースにして、数千のオブジェクトが任意の3dオブジェクトをポーズし、その内の1つが ponit grabs、3.0 dex-net の dex-net 2.0 データセットである。
訳抜け防止モード: Dex - Net 1.0に基づいて、数千が使用するものを生成します。任意の3Dオブジェクトをポーズします。 3.0 Dex - Net the Dex - Net 2.0データセット。
0.71
is built to the study suction-based grasp using end effectors. エンドエフェクタを用いた, 学習用吸引型把持器である。 0.54
Recently, a extension of previous versions, Dex-Net 4.0, has been developed, which can perform training for parallel-jaw and suction gripper. 最近、前バージョンであるDex-Net 4.0の拡張が開発され、パラレルジャーと吸引グリッパーのトレーニングを行うことができる。 0.69
Since data cloud point synthetic includes only dataset Dex-Net and of experiment no RGB information the grasp objects, the of this work is carried out on Cornell and Jacquard mainly grasping dataset. データクラウドポイント合成はデータセットDex-Netのみを含み、RGB情報が取得対象ではないため、この作業は、主にデータセットの把握を行うCornelとJacquardで行われます。 0.69
Cornell Grasping Dataset: The dataset, which is Cornell a benchmark evaluation platform, was collected widely used as real RGB-D world Some example with the the in camera. Cornell Grasping Dataset: Cornellベンチマーク評価プラットフォームであるデータセットは、実際のRGB-Dワールドとして広く使用されている。 0.68
of dataset 6. in imgaes composed The Fig shown are 885 is 640×480 with resolution a of images of 240 different pixels (5110) objects with positive grasps and negative grasps (2909). データセット6のうち、885は640×480で、240個の異なるピクセル(5110)の画像の解像度aは正の把持と負の把持(2909)である。 0.68
RGB images and corresponding point cloud data of each object of Cornell the provided. 提供されるコルネルの各オブジェクトのRGB画像と対応する点雲データ。 0.81
However, poses various with scale are network neural convolutional our training small dataset for is use model. しかし、スケールの異なるポーズは、ネットワークニューラル畳み込みであり、トレーニング用の小さなデータセットは使用モデルです。
訳抜け防止モード: しかし 規模は様々で ネットワークニューラルコンボリューション is使用モデルのための小さなデータセットをトレーニングします。
0.80
In this work, we data augement methods online including random cropping, zooms and rotation to extend the training. 本研究では,ランダムトリミング,ズーム,回転を含むオンラインデータ拡張手法を用いて,トレーニングの拡張を行う。 0.69
during overfitting avoid to dataset データセットを避けるのに 0.73
英語(論文から抽出)日本語訳スコア
TABLE II: Detection Accuracy テーブル II: 検出精度 0.66
(%) of Different Methods (%) 異なる方法の 0.81
Cornell Dataset コーネルデータセット 0.52
8 Author [22] Jiang [2] Lenz Karaoguz [39] Chu [10] Zhang [27] [12] Zhou [40] Wang Redmon [3] Kumra [28] Kumra [17] [41] Asif [29] Guo [11] Park Morrison [14] Zhang [21] Song [14] Wang [42] Our 8 著者 [22] Jiang [2] Lenz Karaoguz [39] Chu [10] Zhang [27] [12] Zhou [40] Wang Redmon [3] Kumra [28] Kumra [17] [41] Asif [29] Guo [11] Park Morrison [14] Zhang [21] Song [14] Wang [42] Our [42] 0.86
Two-stage, Loop AlexNet, MultiGrasp 2ステージ、Loop AlexNet、MultiGrasp 0.76
Method Fast Search SAE GRPN FasterRcnn Multimodal Fusion FCGN Cloosed ResNet-50 GR-ConvNet GraspNet FCNN GGCNN ROI-GD GPWRG 高速検索SAE GRPN FasterRcnn Multimodal Fusion FCGN Cloosed ResNet-50 GR-ConvNet GraspNet FCNN GGCNN ROI-GD GPWRG 0.89
ZF-Net, MultiGrasp ZF-Net, MultiGrasp 0.78
Matching Strategy Efficient Grasping-D Efficient Grasping-RGB Efficient Grasping-RGB-D マッチング戦略 効率的なGrasping-D 効率的なGrasping-RGB 効率的なGrasping-RGB-D 0.39
- Input Size 227 × 227 227 × 227 227 × 227 224 × 224 320 × 320224 × 224 224 × 224 300× 300 224 × 224360× 360 300× 300320× 320 400× 400 300× 300 - Input Size 227 × 227 227 × 227 227 × 227 224 × 224 320 × 320224 × 224 224 × 224 300× 300 224 × 224360× 360 300× 300320× 320 400× 400 300× 300 0.92
Image-Wise Object-Wise on Accuracy(%) 58.3 60.5 75.6 73.9 88.796.0 96.1 88.9 88.2 96.6 97.785.3 88.0 87.1 89.2 88.9 97.7 96.8 90.2 90.6 89.1 93.2 95.4 96.6 73.0 69.0 93.6 93.5 96.2 95.6 91.0 94.4 98.9 95.5 96.6 91.0 98.9 97.8 画像 オブジェクト on Accuracy(%) 58.3 60.5 75.6 73.9 88.796.0 96.1 88.9 88.2 96.6 97.785.3 88.0 87.1 89.2 88.9 97.7 96.8 90.2 90.6 89.1 93.2 95.4 96.6 73.0 69.0 93.6 93.5 96.2 95.6 91.0 94.4 98.9 95.5 96.6 91.0 98.9 97.8 0.61
Time (ms) 5000 1350 200 120 117 117 140 76 1032420 3 408 6 6 6 Time (ms) 5000 1350 200 120 117 117 140 76 1032420 3 408 6 6 6 0.85
to Cornell, conducted we online data augmentation our train sufficient network. コーネルにオンラインデータ拡張を行い 列車のネットワークを充実させました 0.63
Meanwhile, has Jacquard dataset data, so adopting we train network the it without directly on any data and of Cornell images augmentation method. 一方、Jacquardのデータセットデータがあるので、直接データやコーネル画像拡張の手法を使わずに、ネットワークをトレーニングします。 0.70
The are Jacquard In network. Jacquard Inネットワークです。 0.62
300x300 to to the resized feed into addition, the kernel Gaussian data encoded for training. 300x300をリサイズフィードに追加し、カーネルガウスデータをトレーニング用にエンコードします。 0.72
2D labels are A grasp is used to encode each ground-truth positive so that the distribution, where satisfies region corresponding the Gaussian coordinate is distribution of peak of the the Gaussian the the to center point. 2Dラベルは、ガウス座標に対応する領域を満たす分布がガウス点から中心点までのピークの分布であるように、各地上真理を正に符号化するために使用される。 0.81
We also use the and encode sin(2θ) cos(2θ) ∈ [− π grap angle, where 2 ]. また、 sin(2*) cos(2*) ∈ [− π grap angle, where 2 ] も使用してエンコードする。 0.80
corresponding The resulting π θ 2 , ambiguity this method, using By from -1 range valuses 1. to which in can be avoided the Angle learning is process, beneficial to the convergence of the network. 得られた π θ 2 に対応するため、この方法の曖昧性は -1 の範囲のvaluses 1. を用いており、角学習はプロセスであり、ネットワークの収束に有用である。 0.76
the Similarly, grasp width representing the and closing distance of opening training. 同様に、開講訓練の前後距離を表す幅を把握。 0.61
the during 1 to 0 of range a to scaled is gripper the aからスケールした範囲の1から0の期間は、グリーパーである 0.61
C. Training Methodology model end to period, In training we train our generative memory. C。 トレーニング方法論モデル 期末、トレーニングでは、再生メモリをトレーニングします。 0.73
22GB with GPU GTX2080Ti Nvidia on end a achieved is network Pytorch 1.2.0 on grasping The based with cudnn-7.5 and cuda-10.0 pacakges. 22gb gpu gtx2080ti nvidia on end aは、cudnn-7.5とcuda-10.0pacakgesをベースとするネットワークpytorch 1.2.0である。 0.60
The popular Adam optimizer is used to optimize the network for back propagation learning initial The Futhermore, process. 人気のあるadam optimizerは、バックプロパゲーション学習の最初のfuthermoreプロセスでネットワークを最適化するために使用される。 0.73
training during rate the size batch and is defiend as 0.001 of 8 is used in this work. サイズバッチのレートでトレーニングを行い、この作業には8の0.001の値が使われます。 0.71
D. Cornell Grasping Dataset on Experiments works the Following [12], [10], previous different two into dataset is divided ways the model: ability generalization of level: Image-wise • the images each divided. d. Cornell Grasping Dataset on Experimentsは以下の[12], [10], 以前の2つをデータセットに分割する。
訳抜け防止モード: d. Cornell Grasping Dataset on Experimentsは以下の通りです。 [10]、前の異なる2つのデータセットは、モデルが分割される方法である:レベルの能力一般化:イメージ - ワイズ •各分割された画像。
0.78
The images of set test set are different. 設定されたテストセットの画像は異なる。 0.87
and used to test the generalization pose. 一般化の姿勢をテストするのに使われました 0.54
new grasp new‐holded 0.76
of dataset object grasp Image-wise ability of データセットオブジェクトのグリーグのイメージワイズ機能 0.67
[13], to the validate 13] to ♪ 検証は 0.55
Cornell the randomly are training the in level method is the network to コーネル。 ランダムに訓練しています インレベルメソッドはネットワークです 0.62
• network grasping of on Jacquard grasp maps are the for quality, the opening and closing distance for outputs grasp best the row is • Jacquardグラウンドマップ上のネットワークグルーピングは、品質であり、行を最もよく把握する出力のオープニングとクローズ距離である 0.79
results detection The Fig. 9: first three The dataset. 結果検出 図。 9: 最初の3 データセット。 0.72
rows and width angle representing gripper. グリッパーを表す行および幅の角度。 0.77
And, of last the the objects. そして最後には、オブジェクトです。 0.71
several difference: Angle • of orientation the difference corresponding predicted the between grasp and 30◦ is label than less . いくつかの相違点: 向きの角度 • 予測された距離と30 の差はより小さいラベルである。 0.75
Jaccard index: Jaccard the the of predicted index corresponding greater than and grasp label is can be formulated as Eq. jaccard index: jaccard 予測インデックスの値がより大きく、graveラベルがeqとして定式化できる。 0.69
12. |gp ∩ gl| gp ∪ gl and rectangle grasp the and predicted where denote gp gl gp ∩ gt respectively. 12. |gp, gl| gp, gl, gl はそれぞれ gp gl, gp, gt を表す。 0.72
label, of the grasp corresponding the area grasp and the correrepresents the intersection of predicted predicted grasp and sponding grasp label. 区域の把握および相関に対応する把握のラベルは予測された把握および応答の把握のラベルの交差を表します。 0.62
And the union of gp ∪ gt. そしてgpのgtの結合。 0.53
as represented is label grasp corresponding the 表されるように、ラベルの把握は対応する 0.47
angle grasp grasp 25%, which J(gp, gl) = 角度把握は25%で J(gp, gl) = 0.72
(12) B. preprocessing Data The experiments for grasping Jacquard and (12) B。 事前処理 データ Jacquard の取得実験と 0.80
this work dataset. この作業データセットです 0.78
are Due performed on the Cornell of size data small the to is due ♪ トーの小さいコーネルの大きさデータで実行される 0.52
英語(論文から抽出)日本語訳スコア
• level: Object-wise are dataset of instances object the the divided. • level: オブジェクトは分割されたインスタンスオブジェクトのデータセットです。 0.85
All images randomly object same of the are same set (training the split into set set). すべての画像は、ランダムに同じオブジェクトが同じ集合である(分割をセットに訓練する)。 0.79
test or Objectis level wise generalization the validate to used method not ability of the network for new object, which is seen process. テストまたはオブジェクトのレベル 賢明な一般化 新しいオブジェクトのためのネットワークの能力の検証は、プロセスで見られる。 0.72
the in training detection accuracy of our The comparison of the grasp Cornell dataset is model presented on other methods and the indicate that the proposed Experiment II. 把持コーネルデータセットの比較における訓練中の検出精度は,他の手法によるモデルと,提案する実験iiを示唆するものである。 0.83
Table. results in grasp detection algorithm achieves high accuracy of 98.9% and split with an 97.8% in image-wise and object-wise inference algorithms, state-of-the-art other 6ms. テーブル。 把握検出アルゴリズムの結果、98.9%の精度を達成し、97.8%の画像および物的推論アルゴリズムと最先端の他の6msで分割された。 0.73
Compared with time of accuracy a betweeen better our model maintains balance and real-time performance. 正確さと比較すると、私たちのモデルはバランスとリアルタイムパフォーマンスを保ちます。 0.71
By changing the mode of input data, we our generated grasping detection achitecture can find that data. 入力データのモードを変更することで,生成した把持検出アキテクチュアはそのデータを見つけることができる。 0.71
depth of the with performance excellent can get input object-wise And, the results in split demonstrate that the combination of depth and RGB data with rich color and data texture information enables the model to more robust have plot 8, we Fig. その結果、深度とRGBデータとリッチな色とデータテクスチャ情報を組み合わせることで、モデルがプロット8をより堅牢にすることができることを示した。
訳抜け防止モード: 優れたパフォーマンスの深さは、入力オブジェクトを得ることができます - 賢明です。 その結果,深度データとRGBデータとリッチな色とデータテクスチャ情報を組み合わせることで,プロット8がより堅牢になることがわかった。 We Fig!
0.77
objects. unseen to generalization the In ability detection grasping objects results of some for display. オブジェクト。 Unseen to generalization The In ability Detection grasping object results of some for display. (英語) 0.79
Only the candidate with the highest grasp quality is selected grasp as the final output, and the top-1 grasp is visualised in the last angle quality, grasp are rows three first The row. 最終出力として、把持品質の高い候補のみを把持し、最上位1把持を最終角品質で可視化し、第1の行を第3の行とする。 0.72
for the maps distance and the representing width and opening closing of It gripper. 地図の間隔およびそれのグリッパーの幅および開始の閉鎖を表すため。 0.77
the figure can be seen from the that our algorithm can provide reliable grasp candidate for objects with different shapes and poses. この図は、異なる形状とポーズを持つ物体に対して、我々のアルゴリズムが信頼できる把握候補を提供できる点から見ることができる。 0.70
TABLE III: Detection Accuracy Jacquard Dataset 表 iii: 検出精度jacquardデータセット 0.84
of Different Methods (%) 異なる方法の (%) 0.81
on Author Depierre [43] Morrison [14] Zhou [12] Zhang [21] [13] Song Kumra [17] Ours オン 著者Depierre [43] Morrison [14] Zhou [12] Zhang [21] [13] Song Kumra [17] Ours 0.74
Method Jacquard GG-CNN2 FCGN-RGD ROIGD-RGD Resnet-101-RGD GR-ConvNet-RGB-D Efficient Grasping-D Efficient Grasping-RGB Efficient Grasping-RGB-D GG-CNN2 FCGN-RGD ROIGD-RGD Resnet-101-RGD GR-ConvNet-RGB-D 効率的なグラフピング-D 効率的なグラフピング-RGB-D 0.38
Accuracy(%) 74.2 84 92.8 93.6 93.2 94.6 95.6 91.6 93.6 Accuracy(%) 74.2 84 92.8 93.6 93.2 94.6 95.6 91.6 93.6 0.55
E. Jacquard Grasping Dataset on Experiments on network our trian dataset, Cornell Similar the to we perform grasp Jacquard dataset to estimation. e. Jacquard Grasping Dataset on Experiments on network our trian data, Cornell 同様の方法でJacquardデータセットを把握して推定します。 0.79
The results pose data depth III. 結果はデータ深度IIIを示す。 0.82
summarized are in Table. 要約はテーブルにある。 0.74
as input, Taking the proposed method obtains state-of-the-art performance with a detection accuracy of 95.6%, exceeds the existing which Jacquard result the reaches and methods dataset. 入力として、提案手法は、検出精度95.6%の最先端のパフォーマンスを取得し、Jacquardがリーチとメソッドデータセットを結果とする既存のものを超える。
訳抜け防止モード: 入力として 提案された手法を 検出精度は95.6%である。 存在するものを超え Jacquardは、リーチとメソッドのデータセットを生成する。
0.72
on The best III demonstrate Table. The Best III demonstrate Table』に登場。 0.81
experimental results in Table. テーブルの実験結果。 0.74
II and performance that our algorithm not only achieves excellent on Cornell dataset but also outperforms other methods on the displayed are examples detection Some dataset. また,提案アルゴリズムがコーネルデータセットで優れた性能を発揮するだけでなく,表示した他の手法よりも優れた性能を示すのがサンプル検出の例である。
訳抜け防止モード: IIとパフォーマンス 我々のアルゴリズムはコーネルデータセットで 優れているだけでなく 表示された他の方法よりも優れています サンプル検出 いくつかのデータセット。
0.72
Jacquard the Angle, quality, grasp dataset, in Fig. Jacquard the Angle, quality, grasp data, in Fig。 0.75
9. As with the Cornell width representing the opening and closing distance of the gripper, and the best detection results on the jacquard dataset figure. 9. グラッパーの開閉距離を表すコーネル幅や、ジャカードデータセット図上での最良の検出結果と同様である。 0.70
the in presented are TABLE detection 提示されているのは テーブル検出 0.56
impact The IV: performance + GGR + RFBM + MDAFN Acurracy (%) 影響 あらすじ IV:パフォーマンス + GGR + RFBM + MDAFN Acurracy (%)。 0.66
of different network ですから 違う ネットワーク 0.66
Settings on 9 (cid:88) (cid:88) 97.8 設定 オン 9 (cid:88) (cid:88) 97.8 0.74
(cid:88) (cid:88) 94.4 (cid:88) (cid:88) 94.4 0.67
(cid:88) (cid:88) 96.6 (cid:88) (cid:88) 96.6 0.67
(cid:88) (cid:88) (cid:88) 98.9 (cid:88) (cid:88) (cid:88) 98.9 0.68
Fig. scale フィギュア。 scale 0.64
10: The factors grasp of Gaussian 10:要因 Gaussian (複数形 Gaussians) 0.57
detection kernel accuracy when 検出カーネル 精度 いつ 0.72
using different F. Study Ablation to further order In comdifferent of impact the explore grasping ponents on models trained we learning, pose our network different of Cornell image-wise in Settings split of with dataset RGBD results experimental The input. 利用 違う F。 研究アブレーション 学習したモデルに対する探索的把握ポネントの影響を更に考慮し、データセット rgbd による設定分割において、我々のネットワークはコーネルのイメージごとに異なり、入力を実験している。 0.74
data as in summarized are from obtained It Table. 要約したデータは、取得した It Table から得られる。 0.65
IV. can be the accuracy detection evaluation results in the Table. IV。 表の精度検出評価結果にすることができます。 0.79
IV that Gaussian-based grasp representation (GGR), receptive field fusion attention and multi-dimensional (RFBM) block module improvement bring (MDAFN) can network all performance to components the network, and all combined together can get the best grasping detection performance. IV ガウスに基づく把握表現(GGR)、受容場融合の注意および多次元(RFBM)ブロックモジュールの改善は(MDAFN)ネットワークにすべての性能をネットワークにネットワーク化することができ、結合されるすべては最もよい把握の検出の性能を得ることができます。 0.77
Moreover, we also Settings factor scale different discuss on (T) of impact the the scale model, as shown in the Fig. さらに、図に示すように、セッティングファクタスケールもスケールモデルへの影響(T)について異なる議論を行います。 0.76
10. factors In this work, the and Ty mentioned in section III-B are set to T x = T y = T Tx from {4, 8, 16, 32, 64}. 10. 因子 この研究において、III-B節で述べたTyとTyは {4, 8, 16, 32, 64} から T x = T y = T Tx となる。 0.82
When with values ranging the = 16 T reaches dataset of Cornell split object-wise the model , the in accuracy process the experiment, of best detection of 97.8. 16Tの範囲の値がコーネルのデータセットに達すると、モデル , in accuracy process the experiment, of best detection of 97.8 となる。 0.81
In annotation we found the different density of for a particular dataset should be set the size of the corresponding scale factor slow the can value, which learning nerwork the of instability overlap. アノテーションでは、特定のデータセットの異なる密度を対応するスケールファクタのサイズに設定し、can値が遅くなるようにしなければなりません。
訳抜け防止モード: アノテーションでは、特定のデータセットの異なる密度は、対応するスケールファクタのサイズを缶の値を遅くする必要があります。 不安定性の学習のnerworkが重なるかどれか。
0.65
caused by labels ラベルによって引き起こされる 0.48
G. parameter network of Comparison sizes used sizes for network comparisons some V, Table. G。 パラメータネットワーク 比較のサイズ ネットワーク比較に使用されるサイズ V, Table のパラメータネットワーク。 0.84
In of are [24], as such Many listed. 内は[24]、そのような多くのリストです。 0.71
predictions grasping works, contain network of thousands [44], [45], [10], or millions performance of parameters. 作業の把握、数千[44]、[45]、[10]、あるいは数百万のパラメータのパフォーマンスのネットワークを含む予測。
訳抜け防止モード: 予測は作業を把握し、数千[44]のネットワークを含む。 [45 ],[10 ],あるいはパラメータの数百万のパフォーマンス。
0.78
In order to improve the real-time generative lightweight a developed algorithm, we grasping the 実時間生成軽量化アルゴリズムを改良するために,我々はこれを把握した。 0.73
英語(論文から抽出)日本語訳スコア
10 Fig. 12: jects. 10 フィギュア。 12: jects。 0.69
Failed detection cases with 失敗 検出 事例 と 0.67
single and multiple シングル そして 複数 0.73
ob- CONCLUSION Gaussian-based ob- 結論 ガウス系 0.57
VII. we a proposed In reppaper, this grasp highlight the maximum grasp quality to resentation the at center position. VII。 私達は提案されたReppaperで、この把握は中心位置のresentationに最高の把握の質を強調します。 0.66
Based on Gaussian-based grasp representation, generative architecture with a lightweight a field receptive network fusion attention and multi-dimensional block module pose Experiments estimation. gaussian-based grip representationに基づき、軽量な場受容型ネットワーク融合注意と多次元ブロックモジュールによる生成的アーキテクチャは実験評価を行う。 0.78
grasp for on was developed two common public datasets, and Jacquad, show that our Cornell model has a very fast inference speed while achieving a high accuracy detection a reaches and accuracy, detection 98.9 of it and 95.6 respectively on Cornell and Jacquard datasets. grasp for onは2つの一般的なパブリックデータセットを開発し、Jacquadはコーネルモデルが非常に高速な推論速度を持ち、コーネルモデルとジャカードデータセットでそれぞれ98.9と95.6の精度と精度を達成していることを示している。 0.63
[1] [2] [3] [1] [2] [3] 0.85
[4] [5] [6] [4] [5] [6] 0.85
[7] [8] [9] [7] [8] [9] 0.85
[10] [11] [12] [10] [11] [12] 0.85
REFERENCES spaces moduli “Grasp Kragic, D. and Y. Bekiroglu, Pokorny, F. T. on Conference International 2014 IEEE harmonics,” in spherical and (ICRA), Automation Robotics and 389–396. REFERENCES space moduli “Grasp Kragic, D. and Y. Bekiroglu, Pokorny, F. T. on Conference International 2014 IEEE harmonics” in spherical and (ICRA), Automation Robotics and 389–396。 0.92
pp. 2014, detecting for “Deep learning Saxena, A. Lee, and I. Lenz, H. Research, Robotics International Journal of The grasps,” robotic https: Available: [Online]. pp. 2014年には“Deep Learning Saxena, A. Lee, and I. Lenz, H. Research, Robotics International Journal of The grasps”が、ロボットのhttps: available: [Online]に登場した。 0.85
2015. no. vol. 2015年だ Vol. 0.65
705–724, pp. 705–724, pp。 0.80
4-5, 34, //doi.org/10.1177/02 78364914549607 detection convoluusing grasp and A. Angelova, J. Redmon “Real-time 2015 IEEE (ICRA), and Automation in Robotics tional neural networks,” International Conference on. 4-5, 34, //doi.org/10.1177/02 78364914549607 異常検知と A. Angelova, J. Redmon “Real-time 2015 IEEE (ICRA), and Automation in Robotics tional neural Network” 国際会議。 0.82
2015. July Seattle: IEEE, U. detector supervised S. and Tang, grasp “Densely Harrer, J. Asif, CoRR, Available: [Online]. 2015. 7月シアトル: IEEEはS.とTangを監督し、“Densely Harrer, J. Asif, CoRR, available: [Online]”を把握した。 0.80
(DSGD),” 2018. abs/1810.03962, vol. (DSGD)”. 2018. abs/1810.03962, vol. 0.76
http://arxiv.org/abs /1810.03962 “Multi-object G. Wu, W. Chen, H. Cheng, W. Zuo, D. Zhang, and J. Multi-object G. Wu, W. Chen, H. Cheng, W. Zuo, D. Zhang, and J. http://arxiv.org/abs /1810.03962 0.67
You, IEEE Access, grasping vol. あなた、IEEE Access、把握vol.1。 0.64
7, detection with hierarchical fusion,” feature pp. 7、階層融合による検出」機能pp。 0.67
2019. 43 884–43 894, S. deep Kanan, and C. Kumra detection using grasp “Robotic CoRR, 2016. abs/1611.08036, networks,” neural convolutional vol. 2019. 43 884–43 894, S. Deep Kanan, and C. Kumra detection using grasp “Robotic CoRR, 2016 abs/1611.08036, network”, Neural Convolutional vol。 0.86
[Online]. Available: http://arxiv.org/abs /1611.08036 better, “YOLO9000: J. Redmon and A. Farhadi, stronger,” faster, CoRR, vol. [オンライン] 利用可能: http://arxiv.org/abs /1611.08036 better, “YOLO9000: J. Redmon and A. Farhadi, stronger, faster, CoRR, vol. 0.72
abs/1612.08242, Available: http://arxiv.org/ 2016. abs/1612.08242, available: http://arxiv.org/ 2016 0.62
[Online]. abs/1612.08242 Reed, Szegedy, Liu, W. C.-Y. [オンライン] abs/1612.08242 Reed, Szegedy, Liu, W. C.-Y 0.71
S. C. Erhan, D. Anguelov, D. Fu, C. and A. Berg, “Ssd: Single shot multibox detector,” 2015, Available: [Online]. s. c. erhan, d. anguelov, d. fu, c. and a. berg, “ssd: single shot multibox detector” 2015年: [オンライン] 0.82
2016. arxiv:1512.02325Comm ent: ECCV cite http://arxiv.org/abs /1512.02325 S. Ren, K. He, R. Girshick, and J. 2016年 arxiv:1512.02325Comm ent: ECCV cite http://arxiv.org/abs /1512.02325 S. Ren, K. He, R. Girshick, J。 0.59
Sun, “Faster r-cnn: Towards real-time in Neural Advances networks,” proposal detection with object in region 28, Systems Processing Information Cortes, Lawrence, D. C. N. D. D. Sugiyama, and R. Garnett, Eds. Sun, “Faster r-cnn: Towards real-time in Neural Advances Network”, 領域28のオブジェクトによる提案検出, Systems Processing Information Cortes, Lawrence, D. C. N. D. D. Sugiyama, R. Garnett, Eds。 0.93
Curran Associates, Lee, M. Inc., 2015, pp. Curran Associates, Lee, M. Inc., 2015. pp. 0.87
91–99. [Online]. 91–99. [オンライン] 0.69
Available: http://papers.nips.c c/paper/ 5638-faster-r-cnn-to wards-real-time-obje ct-detection-with-re gion-proposal-networ ks. http://papers.nips.c c/paper/ 5638-faster-r-cnn-to wards-real-time-obje ct-detection-with-re gion-proposal-networ ks 0.21
pdf “Deep and grasp: Detection localization R. Xu, F. P. A. Vela, and Chu, CoRR, abs/1802.00520, vol. pdf “Deep and grasp: Detection localization R. Xu, F. P. A. Vela, and Chu, CoRR, abs/1802.00520, vol. 0.90
networks,” neural deep with grasps of http://arxiv.org/abs /1802.00520 [Online]. neural deepは、http://arxiv.org/abs /1802.00520[オンライン]を把握している。 0.53
Available: 2018. Park, Se Young Dongwon and S. Park, Y. S. Dongwon Y. Chun accurate S. Y. Chun, “Real-time, highly grasp robotic using detection fully images,” high-resolution with networks convolutional neural CoRR, Available: [Online]. 2018年発売。 Park, Se Young Dongwon and S. Park, Y. S. Dongwon Y. Chun accurate S. Y. Chun, “Real-time, highly grasp robotic using complete image”, High- resolution with network convolutional Neural CoRR, available: [Online]。 0.72
withdrawn. 2018, abs/1809.05828, vol. 撤退だ 2018年、abs/1809.05828。 0.44
http://arxiv.org/abs /1809.05828 Zheng, and Y. Tian, H. Lan, Zhou, Zhang, Z. X. X. Zhang, N. with network grasp “Fully convolutional detection oriented anchor CoRR, [Online]. http://arxiv.org/abs /1809.05828 Zheng, and Y. Tian, H. Lan, Zhou, Zhang, Z. X. X. Zhang, N. with network grasp "Fully convolutional detection oriented anchor CoRR, [Online] 0.83
abs/1803.02209, box,” vol. abs/1803.02209, box”。 0.84
2018. Available: http: //arxiv.org/abs/1803 .02209 2018. http: //arxiv.org/abs/1803 .02209 0.65
11: The column is several quality, distance 11: 柱はいくつかの品質、距離、 0.78
grasping objects. オブジェクトをつかむ。 0.77
The of multiple detection results Fig. 複数の検出結果の図。 0.73
corresponding RGB images the grasp outputs of first for columns The objects. 対応するRGB画像は、列の先頭の把握出力オブジェクトです。 0.74
last three for and angle and representing width grasp gripper. 最後の3対と角度と幅把握グリッパーを表す。 0.78
closing the of TABLE V: Network size comparison Parameters Author[2] Lenz Pinto 60 million and Gupta Levine [44] 1 million Johns [45] 60 million 216 million Chu [10] Morrison 66 Ours 4.67 million TABLE V: Network size comparison Parameters Author[2] Lenz Pinto 6, million and Gupta Levine [44] 100 million Johns [45] 60 million 216 million Chu [10] Morrison 66 Ours 4.67 million 0.83
Time 13.5s0.2-0.5s120ms 3ms 5ms 時間 13.5s0.2-0.5s120ms 3ms 5ms 0.28
of (Approx.) Approx (複数形 Approxs) 0.54
are the the maps opening その通りです 地図が開きます 0.61
different methods [24] 異なる方法 [24] 0.81
[14] k achieves architecture, which detection grasping detection high speed, of 4.67M size its running and network and fast acurracy other methods. [14] k 検出を高速に把握するアーキテクチャを、4.67Mサイズで実行し、ネットワークと高速な他の手法で実現します。 0.82
than of magnitude order is an smaller clutter Objects in H. validate proposed model generalization To the ability of the in clutter scene, we the model trained on Cornell the use dataset to test in a realistic multi-object enviroment. 提案するモデルの一般化を不規則なシーンの能力に検証し、コーネルにトレーニングされたモデルは、現実的なマルチオブジェクト環境でテストするためのデータセットを使用する。
訳抜け防止モード: than of magnitude order is a small clutter Objects in H. 提案されたモデル一般化を検証する in clutter scene の能力。 実際のマルチオブジェクト環境でテストするために、使用データセットをCornelでトレーニングしたモデルです。
0.74
more the Although 11. in presented are results The detection Fig. より多く: Although 11. presented is results The detection Fig. 0.81
trained is model on object dataset, it is still able to a single effectively the grasp pose of multiple objects. トレーニングはオブジェクトデータセットのモデルであり、複数のオブジェクトの把握ポーズを効果的に1つにすることができる。 0.78
In compredict plex scenarios, the proposed model has better generalization ability objects multiple for estimation pose grasp perform to simultaneously. 予測複雑なシナリオにおいて,提案モデルでは,複数の一般化能力オブジェクトが同時に動作するポーズを推定する。 0.77
I. Failure cases analysis the although that found was it experiment, the During proposed algorithm accuracy, detection high achieved it still failed to detect some shown as cases, in Fig. 私。 失敗事例分析 実験では、提案されたアルゴリズムの精度では高い精度で検出できたが、figではいくつかの例では検出できなかった。 0.73
12. For some objects in the Jacquard dataset with complex shapes, our model smaller scenes, clutter in not work well. 12. 複雑な形状のJacquardデータセットにあるいくつかのオブジェクトの場合、我々のモデルは小さなシーンで、うまく動作しない。 0.78
Furthermore, does the the model, objects among multiple objects are often missed by and the the model for large boxe is not detection quality of good as well. さらに、このモデルでは、複数のオブジェクト間のオブジェクトがしばしば見逃され、大きなボックスのモデルは、良質な検出品質をもたらさない。 0.72
However, these shortcomings can be addressed dataset. しかし、これらの欠点はデータセットに対処できる。 0.56
training the of diversity the increasing by 増大する多様性の訓練 0.60
英語(論文から抽出)日本語訳スコア
11 [35] [36] 11 [35] [36] 0.85
[37] [38] [39] [37] [38] [39] 0.85
[40] [41] [42] [40] [41] [42] 0.85
[43] [44] [45] [43] [44] [45] 0.85
K. R. X. Wang, Girshick, netneural “Non-local and Gupta, A. K. R. X. Wang, Girshick, netneural “Non-local and Gupta, A。 0.86
He, Proceedings Vision Computer on Conference IEEE the of works,” in Pattern and Recognition (CVPR), June 2018. He, Proceedings Vision Computer on Conference IEEE the of work”. Pattern and Recognition (CVPR) 2018年6月。 0.78
2018 Shen, J. Hu, L. “Squeeze-and-excitati on Sun, in networks,” and G. Recognition, and Vision Computer on Conference IEEE/CVF Pattern pp. 2018 Shen, J. Hu, L. “Squeeze-and-excitati on Sun, in network” and G. Recognition, and Vision Computer on Conference IEEE/CVF Pattern pp。 0.90
2018, 7132–7141. 2018, 7132–7141. 0.84
J. Convolutional Kweon, Lee, S. Woo, Park, J.-Y. J. Convolutional Kweon, Lee, S. Woo, Park, J.-Y 0.96
and I. S. “Cbam: in Proceedings of the European Conference on block attention module,” Computer Vision (ECCV), September 2018. そしてI.S. “Cbam: in Proceedings of the European Conference on block attention module”. Computer Vision (ECCV) 2018年9月。 0.87
X. kernel “Selective Yang, and Wang, W. networks,” J. Hu, X. Li, CoRR, http://arxiv.org/ 2019. abs/1903.06586, vol. X. kernel “Selective Yang, and Wang, W. networks”, J. Hu, X. Li, CoRR, http://arxiv.org/ 2019. abs/1903.06586, vol. 0.82
[Online]. Available: abs/1903.06586 approach for detection “Object robot P. H. Karaoguz and Jensfelt, on Robotics Conference 2019 International and in grasp detection,” (ICRA), Automation 2019, pp. [オンライン] 利用可能な: abs/1903.06586 検出のためのアプローチ “Object Robot P.H. Karaoguz and Jensfelt, on Robotics Conference 2019 International and in grasp detection” (ICRA), Automation 2019, pp。 0.81
4953–4959. 4953–4959. 0.71
detection “Robot Liu, H. and Wang, Z. 検出 “Robot Liu, H. and Wang, Z。 0.85
Z. B. Wang, grasp Li, Advances in deep using networks,” neural multimodal convolutional Mechanical Engineering, 2016. Z。 B.Wang, grasp Li, Advances in Deep Use Network”. Neural Multimodal Convolutional Mechanical Engineering, 2016. 0.80
1687814016668077, no. 1687814016668077, no. 0.85
vol. 8, 9, p. [Online]. Vol. 8, 9, p. [オンライン]. 0.77
Available: https://doi.org/10.1 177/1687814016668077 U. J. Tang, S. Harrer, “Graspnet: An convolutional and Asif, efficient devices,” low-powered detection grasp for neural real-time for network Conference International Twenty-Seventh of Proceedings the Joint in Intelligence, on Artificial IJCAI-18. 利用可能: https://doi.org/10.1 177/1687814016668077 U.J. Tang, S. Harrer, “Graspnet: An convolutional and Asif, efficient devices”, ネットワークのためのニューラルネットワークリアルタイムの低パワー検出把握 カンファレンス International Twenty-Seventh of Proceedings the Joint in Intelligence, on Artificial IJCAI-18。 0.73
Joint Conferences International on [Online]. 国際共同会議[オンライン]. 0.66
4875–4882. 4875–4882. 0.71
Intelligence Artificial Organization, 7 2018, pp. 人工知能研究所、2018年7月7日、p。 0.42
Available: https://doi.org/10.2 4963/ijcai.2018/677 X. Wang, W. S. Wang, X. Jiang, J. Zhao, Zhou, and Liu, “Efficient Y. neural fully robotic generating network convolution wise pixel for images,” CoRR, 2019. abs/1902.08950, vol. https://doi.org/10.2 4963/ijcai.2018/677 X. Wang, W.S. Wang, X. Jiang, J. Zhao, Zhou, and Liu, “Efficient Y. neural fully robotic generate network convolution wise pixel for images”, CoRR, 2019. abs/1902.08950, vol。 0.78
resolution high grasps with [Online]. 解像度が高い[オンライン]. 0.73
Available: http://arxiv.org/abs /1902.08950 Dellandr´ea, scale “Jacquard: L. A. Depierre, E. and Chen, large CoRR, abs/1803.11469, detection,” dataset robotic grasp for vol. 出典: http://arxiv.org/abs /1902.08950 Dellandr ́ea, scale “Jacquard: L. A. Depierre, E. and Chen, large CoRR, abs/1803.11469, detection”。 0.72
2018. http://arxiv.org/abs /1803.11469 [Online]. 2018. http://arxiv.org/abs /1803.11469 [オンライン]。 0.46
Available: “Learning and D. Quillen, J. Pastor, A. Krizhevsky, P. S. Ibarz, Levine, learning with robotic for coordination hand-eye deep grasping and Journal International The of Robotics data collection,” large-scale Research, 4-5, 37, vol. 提供: “Learning and D. Quillen, J. Pastor, A. Krizhevsky, P.S. Ibarz, Levine, Learning with Robotics for coordinate hand-eye Deep grasping and Journal International The of Robotics data collection”、大規模な研究、4-5, 37, vol。 0.90
no. pp. 421–436, 2018. ダメよ pp. 421–436, 2018. 0.75
[Online]. Available: https://doi.org/10.1 177/0278364917710318 a learning “Deep Davison, A. and Leutenegger, E. J. S. Johns, grasp 2016 IEEE/RSJ for function pose grasping under gripper uncertainty,” in International Conference on Intelligent Robots and Systems (IROS), 2016, pp. [オンライン] 出典: https://doi.org/10.1 177/0278364917710318 a learning “Deep Davison, A. and Leutenegger, E. J. S. Johns, grasp 2016 IEEE/RSJ for handleing grasping under gripper uncertainty”. International Conference on Intelligent Robots and Systems (IROS), 2016 pp。 0.78
4461–4468. 4461–4468. 0.71
A [13] [14] A [13] [14] 0.85
[15] [16] [17] [18] [15] [16] [17] [18] 0.85
[19] [20] [21] [19] [20] [21] 0.85
[22] [23] [24] [22] [23] [24] 0.85
[25] [26] [27] [25] [26] [27] 0.85
[28] [29] [30] [31] [32] [28] [29] [30] [31] [32] 0.85
[33] [34] grasp and [33] [34] つかんで 0.69
L. Gao, X. based on L. Gao, X に基づく。 0.86
“A novel and W. Shen, detection Li, Y. 「小説とW.Shen、検出Li、Y。 0.65
Song, robotic ComputerRobotics networks,” proposal region method Integrated Manufacturing, 65, vol. Song, Robot ComputerRobotics Network” の提案地域メソッドIntegrated Manufacturing, 65, vol。 0.74
p. 101963, [Online]. p.101963, [オンライン]。 0.78
Available: 2020. http://www.sciencedi rect.com/science/art icle/pii/S0736584519 308105 real-time, robust, “Learning Leitner, J. Corke, P. Morrison, D. and Robotics The International Journal of reactive grasping,” robotic Research, Available: [Online]. 2020年: http://www.sciencedi rect.com/science/art icle/pii/S0736584519 308105 Real-time, robust, “Learning Leitner, J. Corke, P. Morrison, D. and Robotics The International Journal ofactive grasping”, Robot Research, available: [Online] 0.80
2020. pp. no. 2020年、p。 ダメよ 0.62
39, vol. 2-3, 183–201, https://doi.org/10.1 177/0278364919859066 S. Wang, X. Jiang, J. Zhao, X. Wang, W. Zhou, and Y. Liu, “Efficient neural fully robotic generating network convolution wise pixel for images,” CoRR, 2019. abs/1902.08950, vol. 39, vol。 2-3, 183–201, https://doi.org/10.1 177/02783649 19859066 S. Wang, X. Jiang, J. Zhao, X. Wang, W. Zhou, and Y. Liu, “Efficient neural fully robotic generate network convolution wise pixel for images”, CoRR, 2019. abs/1901901908950, vol。 0.78
resolution high grasps with [Online]. 解像度が高い[オンライン]. 0.73
Available: http://arxiv.org/abs /1902.08950 D. Wang, “Sgdn: Segmentation-based grasp detection network for unsymmetrical three-finger 2020. gripper,” using grasping robotic “Antipodal F. and Joshi, S. Kumra, S. Sahin, 2019. network,” neural convolutional residual generative review,” and grasping V. and A. a Bicchi Kumar, “Robotic contact: in IEEE Proceedings 2000 ICRA. 利用可能: http://arxiv.org/abs /1902.08950 D. Wang, “Sgdn: Segmentation-based grasp detection network for Unsymmetrical three-finger 2020. gripper”, ロボットの“Antipodal F. and Joshi, S. Kumra, S. Sahin, 2019. network”, Neural Convolutional residual Generative Review”, そしてV. and A. a Bicchi Kumar, “Robotic contact: in IEEE Proceedings 2000 ICRA”をつかむ。 0.87
Millennium Conference. International and Conference on Robotics Automation. ミレニアム会議。 International and Conference on Robotics Automation(英語) 0.70
Symposia Proceedings (Cat. Symposia Proceedings (Cat。 0.80
No.00CH37065), vol. No.00CH37065)。 0.71
1, 2000, vol.1. 2000年、Vol.1。 0.65
pp. 348–353 “Detecting Fujiyoshi, and Yamashita, T. R. Y. H. Araki, Inagaki, 2019 of structures layered picking,” for partially occluded objects bin in Systems and Robots Intelligent IEEE/RSJ International Conference on (IROS), 2019, pp. pp. 348-353 "Detecting Fujiyoshi, and Detecting Fujiyoshi, and Yamashita, T.R.Y.H. Araki, Inagaki, 2019 of Structureed Pick" for partial Occluded objects bin in Systems and Robots Intelligent IEEE/RSJ International Conference on (IROS), 2019, pp。 0.89
5786–5791. 5786–5791. 0.71
Gari´epy, Gigu`ere, P. A. J.-C. Ruel, B. Chaib-draa, and “Gq-stn: Opti2019 detection grasp one-shot mizing classifier,” on based robustness Systems and Robots Intelligent Conference International IEEE/RSJ on (IROS), 2019. Gari ́epy, Gigu`ere, P. A. J.C. Ruel, B. Chaib-draa, and “Gq-stn: Opti2019 detection grasp one-shot mizing classifier” on based robustness Systems and Robots Intelligent Conference International IEEE/RSJ on (IROS), 2019。 0.85
3996–4003, pp. 3996-4003, pp。 0.71
and Z. Zhou, Bai, “RoiZheng, N. X. H. Zhang, X. S. Tian, Lan, 2019 based robotic grasp detection for object overlapping scenes,” in IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 4768–4775. IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 4768–4775で「RoiZheng, N.X.H.Zhang, X.S. Tian, Lan, 2019 based robotic grasp detection for object overlapping scene」と題された。 0.84
2019, pp. rgbd from grasping “Efficient Saxena, A. and Yun Jiang, S. Moseson, 2011 IEEE images: Learning using new a rectangle representation,” in International Conference on Robotics and Automation, 2011, pp. 2019年、p。 Efficient Saxena, A. and Yun Jiang, S. Moseson, S. Moseson, 2011 IEEE images: Learning using new a rectangle representation”を2011 pp. International Conference on Robotics and Automationで発表しました。 0.82
3304– 3311. from robotic “Vision-based S. and Wang, Du, G. grasping Lian, K. object detection grasp localization, pose estimation, to motion planning: CoRR, Available: vol. 3304–3311. ロボット “Vision-based S. and Wang, Du, G. grasping Lian, K. object detection grasp Localization, pose Estimation, to motion planning: CoRR, available: vol.” の略。
訳抜け防止モード: 3304 – 3311 . from robotic “Vision - based S. Wang, Du, G. grasping Lian, K. object detection grasp Localization, pose estimation, to motion planning : CoRR, available : vol .
0.96
review,” A 2019. abs/1905.06658, [Online]. レビュー"A 2019. abs/1905.06658, [オンライン]。 0.76
http://arxiv.org/abs /1905.06658 self-supervision: Learning and A. Gupta, L. Pinto “Supersizing to grasp IEEE International 2016 from robot 50k tries and 700 hours,” in (ICRA), and Robotics Conference Automation on 3406–3413. arxiv.org/abs/1905.0 6658 self-supervision: learning and a. gupta, l. pinto “supersizing to grab ieee international 2016 from robot 50k tries and 700 hours” in (icra) and robotics conference automation on 3406–3413。 0.84
2016, pp. Liu, Doan, R. Laskey, M. Niyaz, Liang, J. Mahler, J. X. S. learning Deep 2.0: Goldberg, K. Ojea, J. and to A. 2016年、p。 Liu, Doan, R. Laskey, M. Niyaz, Liang, J. Mahler, J. X.S. learn Deep 2.0: Goldberg, K. Ojea, J. and A。 0.81
“Dex-net plan robust grasps with synthetic point clouds and analytic grasp CoRR, metrics,” vol. Dex-net plan robust grasps with synthetic point clouds and analytic grip CoRR,metrics” vol。 0.68
abs/1703.09312, 2017. abs/1703.09312, 2017 0.64
[Online]. Available: http://arxiv.org/abs /1703.09312 Y. D. detection based “Classification Chun, and Park grasp S. CoRR, 2018. abs/1803.01356, vol. [オンライン] http://arxiv.org/abs /1703.09312 Y.D. Detection based “Classification Chun, and Park grasp S. CoRR, 2018. abs/1803.01356, vol. 0.66
network,” transformer spatial using http://arxiv.org/abs /1803.01356 [Online]. network", transformer spatial using http://arxiv.org/abs /1803.01356 [オンライン]。 0.62
Available: Fengshan, Zhang, Qiang, Qu, Xu, Fang, and Zou, “Robust Daokui, MATEC Web Conf., robot detection fusion,” grasp in multimodal https://doi.org/10.1 051/ Available: [Online]. 利用可能: fengshan, zhang, qiang, qu, xu, fang, zou, “robust daokui, matec web conf., robot detection fusion”, grab in multimodal https://doi.org/10.1 051/ available: [オンライン] 0.84
00060, p. vol. 00060、p. vol.。 0.77
2017. 139, matecconf/2017139000 60 convoludetection grasp “Robotic S. Kumra deep and C. Kanan, using 2017 IEEE/RSJ International Conference on tional networks,” in neural Intelligent Robots and Systems (IROS), 769–776. 2017. 139, matecconf/2017139000 60 convoludetection grasp “Robotic S. Kumra Deep and C. Kanan, using 2017 IEEE/RSJ International Conference on tional network” in neural Intelligent Robots and Systems (IROS), 769–776。 0.91
2017, pp. hybrid “A N. Fang, Kong, T. H. Sun, D. Xi, and deep B. Liu, F. Guo, International 2017 IEEE in detection,” grasp robotic for architecture (ICRA), Automation and Robotics on Conference 1609–1614. 2017年、p。 ハイブリッド “A N. Fang, Kong, T. H. Sun, D. Xi, and Deep B. Liu, F. Guo, International 2017 IEEE in detection” は、アーキテクチャのためのロボット(ICRA), Automation and Robotics on Conference 1609–1614。 0.86
2017, pp. Dellandr´ea, gras“Optimizing Chen, A. Depierre, E. and L. correlated prediction,” grasp pability score and grasp regression for better 2020. 2017年、p。 Dellandr ́ea, gras“Optimizing Chen, A. Depierre, E. and L. correlation prediction”〔英文〕は、2020年より好転した。 0.79
N. Gkanatsios, G. Chalvatzaki, P. Maragos, and “Orientation J. Peters, 2020. synthesis,” grasp robot attentive Husz´ar, Bishop, P. Totz, F. Caballero, W. R. Aitken, A. Shi, J. J. and image single Wang, Z. and D. Rueckert, “Real-time video super-resolution using an efficient sub-pixel convolutional neural CoRR, network,” vol. N. Gkanatsios, G. Chalvatzaki, P. Maragos, “Orientation J. Peters, 2020. synthesis”, grasping robot attentive Husz ́ar, Bishop, P. Totz, F. Caballero, W. R. Aitken, A. Shi, J. and image single Wang, Z. and D. Rueckert, “Real-time video super- resolution using a efficient sub-pixel convolutional neural CoRR, network” vol。 0.93
abs/1609.05158, 2016. abs/1609.05158, 2016 0.68
[Online]. Available: http://arxiv.org/abs /1609.05158 net block “Field J, BA and W. W. for object fast and accurreceptiveate recep-tive population and neuroimaging deteccomputational Sciences, Trends in Cognitive eldstion,” in 2015. for block accurate S. Liu, D. Huang, and a. Wang, “Receptive net field Conference Proceedings of the European and fast object detection,” in (ECCV), Vision Computer on 2018. [オンライン] 利用可能: http://arxiv.org/abs /1609.05158 net block “Field J, BA and W.W. for object fast and accurreceptiveate recep-tive population and neuroimaging deteccomputational Sciences, Trends in Cognitive eldstion” in 2015 for block accurate S. Liu, D. Huang, and a. Wang, “Receptive net field Conference Proceedings of the European and Fast Object Detection” in (ECCV), Vision Computer on 2018。 0.81
September 9月 0.66
                       ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。