論文の概要: GI-NNet \& RGI-NNet: Development of Robotic Grasp Pose Models, Trainable
with Large as well as Limited Labelled Training Datasets, under supervised
and semi supervised paradigms
- arxiv url: http://arxiv.org/abs/2107.07452v1
- Date: Thu, 15 Jul 2021 16:55:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-16 13:55:18.743090
- Title: GI-NNet \& RGI-NNet: Development of Robotic Grasp Pose Models, Trainable
with Large as well as Limited Labelled Training Datasets, under supervised
and semi supervised paradigms
- Title(参考訳): gi-nnet \&rgi-nnet: 教師付きおよび半教師付きパラダイム下で、大きなラベル付きトレーニングデータセットとともにトレーニング可能なロボット把持ポーズモデルの開発
- Authors: Priya Shukla, Nilotpal Pramanik, Deepesh Mehta and G.C. Nandi
- Abstract要約: 私たちは、ロボットが適切な把握を素早く生成し実行することを学ぶのを助けるために、ディープラーニング技術を使用します。
我々は、見えない物体だけでなく、見えない物体にも対足ロボットの把握を生成できるジェネレーティブ・インセプション・ニューラル・ニューラルネットワーク(GI-NNet)モデルを開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our way of grasping objects is challenging for efficient, intelligent and
optimal grasp by COBOTs. To streamline the process, here we use deep learning
techniques to help robots learn to generate and execute appropriate grasps
quickly. We developed a Generative Inception Neural Network (GI-NNet) model,
capable of generating antipodal robotic grasps on seen as well as unseen
objects. It is trained on Cornell Grasping Dataset (CGD) and attained 98.87%
grasp pose accuracy for detecting both regular and irregular shaped objects
from RGB-Depth (RGB-D) images while requiring only one third of the network
trainable parameters as compared to the existing approaches. However, to attain
this level of performance the model requires the entire 90% of the available
labelled data of CGD keeping only 10% labelled data for testing which makes it
vulnerable to poor generalization. Furthermore, getting sufficient and quality
labelled dataset is becoming increasingly difficult keeping in pace with the
requirement of gigantic networks. To address these issues, we attach our model
as a decoder with a semi-supervised learning based architecture known as Vector
Quantized Variational Auto Encoder (VQVAE), which works efficiently when
trained both with the available labelled and unlabelled data. The proposed
model, which we name as Representation based GI-NNet (RGI-NNet), has been
trained with various splits of label data on CGD with as minimum as 10%
labelled dataset together with latent embedding generated from VQVAE up to 50%
labelled data with latent embedding obtained from VQVAE. The performance level,
in terms of grasp pose accuracy of RGI-NNet, varies between 92.13% to 95.6%
which is far better than several existing models trained with only labelled
dataset. For the performance verification of both GI-NNet and RGI-NNet models,
we use Anukul (Baxter) hardware cobot.
- Abstract(参考訳): オブジェクトの把握方法は,COBOTによる効率,知性,最適な把握が困難である。
ここでは、プロセスの合理化のために、ロボットが適切な把握を素早く生成し実行することを学ぶためのディープラーニング技術を使用します。
我々は,目に見えない物体だけでなく対脚ロボットの把持を生成できる生成的インセプションニューラルネットワーク(gi-nnet)モデルを開発した。
コーネル把持データセット(cgd)を訓練し、rgb深度(rgb-d)画像から正規形状と不規則形状の両方を検出するポーズ精度を98.87%達成し、ネットワークトレーニング可能なパラメータの3分の1しか必要としない。
しかし、このレベルのパフォーマンスを達成するには、cgdの利用可能なラベル付きデータの90%がテストのためにわずか10%のラベル付きデータを保持しておく必要がある。
さらに、十分な品質とラベル付きデータセットの取得は、巨大ネットワークの要求に合わせたペースを維持するのがますます難しくなってきている。
これらの問題に対処するために,我々は,vector quantized variational auto encoder (vqvae)として知られる半教師付き学習ベースアーキテクチャをデコーダとして導入した。
Representation based GI-NNet (RGI-NNet) と呼ばれる提案モデルは、VQVAEから生成される遅延埋め込みと、VQVAEから得られる遅延埋め込みと、最大10%のラベル付きデータセットを用いて、CGD上の様々なラベルデータを用いて訓練されている。
RGI-NNetの把握精度は92.13%から95.6%であり、ラベル付きデータセットだけで訓練された既存のモデルよりもはるかに優れている。
GI-NNetモデルとRGI-NNetモデルの両方の性能検証にはAnukul(Baxter)ハードウェアコボットを用いる。
関連論文リスト
- GOODAT: Towards Test-time Graph Out-of-Distribution Detection [103.40396427724667]
グラフニューラルネットワーク(GNN)は、さまざまな領域にわたるグラフデータのモデリングに広く応用されている。
近年の研究では、特定のモデルのトレーニングや、よく訓練されたGNN上でのデータ修正に重点を置いて、OOD検出のグラフを調査している。
本稿では、GNNアーキテクチャのトレーニングデータと修正から独立して動作する、データ中心、教師なし、プラグアンドプレイのソリューションを提案する。
論文 参考訳(メタデータ) (2024-01-10T08:37:39Z) - SeiT++: Masked Token Modeling Improves Storage-efficient Training [36.95646819348317]
近年のDeep Neural Network(DNN)モデルでは,コンピュータビジョンタスクのパフォーマンスが大幅に向上している。
高度に一般化可能で高性能なビジョンモデルを実現するには、拡張データセットが必要である。
SeiTによる最近のブレークスルーは、Vector-Quantized (VQ)特徴ベクトル(トークン)を視覚分類のためのネットワーク入力として使用することを提案した。
本稿では,自己指導型事前学習のためのMasked Token Modeling (MTM)を統合し,SeyTを拡張した。
論文 参考訳(メタデータ) (2023-12-15T04:11:34Z) - Exploring the Effectiveness of Dataset Synthesis: An application of
Apple Detection in Orchards [68.95806641664713]
本研究では,リンゴ樹の合成データセットを生成するための安定拡散2.1-baseの有用性について検討する。
我々は、現実世界のリンゴ検出データセットでリンゴを予測するために、YOLOv5mオブジェクト検出モデルを訓練する。
その結果、実世界の画像でトレーニングされたベースラインモデルと比較して、生成データでトレーニングされたモデルはわずかに性能が劣っていることがわかった。
論文 参考訳(メタデータ) (2023-06-20T09:46:01Z) - Post-training Model Quantization Using GANs for Synthetic Data
Generation [57.40733249681334]
量子化法における実データを用いたキャリブレーションの代用として合成データを用いた場合について検討する。
本稿では,StyleGAN2-ADAが生成したデータと事前学習したDiStyleGANを用いて定量化したモデルの性能と,実データを用いた量子化とフラクタル画像に基づく代替データ生成手法との比較を行った。
論文 参考訳(メタデータ) (2023-05-10T11:10:09Z) - Data-Free Adversarial Knowledge Distillation for Graph Neural Networks [62.71646916191515]
グラフ構造化データ(DFAD-GNN)を用いたデータフリー逆知識蒸留のための第1のエンドツーエンドフレームワークを提案する。
具体的には、DFAD-GNNは、教師モデルと学生モデルとを2つの識別器とみなし、教師モデルから学生モデルに知識を抽出するために学習グラフを導出するジェネレータという、主に3つの成分からなる生成的対向ネットワークを採用している。
我々のDFAD-GNNは、グラフ分類タスクにおける最先端のデータフリーベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2022-05-08T08:19:40Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - Development of a robust cascaded architecture for intelligent robot
grasping using limited labelled data [0.0]
ロボットの場合、オブジェクトを効果的に把握する方法を学ぶために多くの時間を費やす余裕はありません。
本稿では,VQVAEに基づく効率的な学習アーキテクチャを提案する。
ラベル付きデータセットが限定された場合でも,より一般化可能な半教師付き学習ベースモデルについて検討した。
論文 参考訳(メタデータ) (2021-11-06T11:01:15Z) - Model Composition: Can Multiple Neural Networks Be Combined into a
Single Network Using Only Unlabeled Data? [6.0945220518329855]
本稿では,ラベルなしデータを用いた複数のトレーニングニューラルネットワークの組み合わせについて検討する。
提案手法は, ラベルのないデータから収集した疑似ラベルの生成, フィルタリング, 集約を利用する。
本手法は任意のアーキテクチャとカテゴリを持つ任意の入力モデルの使用をサポートする。
論文 参考訳(メタデータ) (2021-10-20T04:17:25Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - A data-set of piercing needle through deformable objects for Deep
Learning from Demonstrations [0.21096737598952847]
本稿では,ダ・ヴィンチ・リサーチ・キットの2本の腕で針を挿入/ピアスするデータセットについて述べる。
我々は、単純なフィードフォワードCNNと異なるリカレント畳み込みネットワーク(RCN)を含む、いくつかの深いRLfDアーキテクチャを実装している。
本研究は、ベースラインフィードフォワードCNNが、ロボットの視覚情報と次のステップ制御動作の関係をうまく学習しているにもかかわらず、RCNがモデルの予測精度を向上させることを示唆している。
論文 参考訳(メタデータ) (2020-12-04T08:27:06Z) - Semi-supervised Grasp Detection by Representation Learning in a Vector
Quantized Latent Space [1.3048920509133808]
本稿では,半教師付き学習に基づく把握検出手法を提案する。
我々の知る限りでは、変分オートエンコーダ(VAE)がロボットグリップ検出の分野に応用されたのはこれが初めてである。
このモデルでは、未ラベル画像を使用しない既存の手法に比べて、グリップを改善するために大幅に性能が向上する。
論文 参考訳(メタデータ) (2020-01-23T12:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。