論文の概要: Data-efficient learning of object-centric grasp preferences
- arxiv url: http://arxiv.org/abs/2203.00384v1
- Date: Tue, 1 Mar 2022 12:10:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 15:41:38.254676
- Title: Data-efficient learning of object-centric grasp preferences
- Title(参考訳): 対象中心の把握嗜好に関するデータ効率学習
- Authors: Yoann Fleytoux and Anji Ma and Serena Ivaldi and Jean-Baptiste Mouret
- Abstract要約: データ効率のよい把握パイプラインを導入し、オブジェクトごとのラベルを数個しか持たずに、把握の好みを学習する。
私たちのパイプラインは、最先端のグリップジェネレータで生成されたデータセットを使って、潜在的なグリップ空間を学習することに基づいています。
その結果,提案手法はコーネルデータセット上でGR-ConvNetとGG-CNNより優れていた。
- 参考スコア(独自算出の注目度): 3.7468898363447645
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Grasping made impressive progress during the last few years thanks to deep
learning. However, there are many objects for which it is not possible to
choose a grasp by only looking at an RGB-D image, might it be for physical
reasons (e.g., a hammer with uneven mass distribution) or task constraints
(e.g., food that should not be spoiled). In such situations, the preferences of
experts need to be taken into account.
In this paper, we introduce a data-efficient grasping pipeline (Latent Space
GP Selector -- LGPS) that learns grasp preferences with only a few labels per
object (typically 1 to 4) and generalizes to new views of this object. Our
pipeline is based on learning a latent space of grasps with a dataset generated
with any state-of-the-art grasp generator (e.g., Dex-Net). This latent space is
then used as a low-dimensional input for a Gaussian process classifier that
selects the preferred grasp among those proposed by the generator.
The results show that our method outperforms both GR-ConvNet and GG-CNN (two
state-of-the-art methods that are also based on labeled grasps) on the Cornell
dataset, especially when only a few labels are used: only 80 labels are enough
to correctly choose 80% of the grasps (885 scenes, 244 objects). Results are
similar on our dataset (91 scenes, 28 objects).
- Abstract(参考訳): ディープラーニングのおかげで,ここ数年で大きな進歩を遂げました。
しかし、rgb-d画像だけを見るだけでは把握できない物体が多数存在し、物理的理由(例えば、不均一な質量分布を持つハンマー)やタスク制約(例えば、損なうべきではない食品)のためかもしれない。
このような状況では、専門家の好みを考慮する必要がある。
本稿では、データ効率のよい把握パイプライン(Latent Space GP Selector -- LGPS)を導入し、オブジェクトごとのラベル数個(典型的には1対4)で把握の好みを学習し、このオブジェクトの新しいビューに一般化する。
私たちのパイプラインは、最先端の把持ジェネレータ(例:dex-net)で生成されたデータセットを使って、潜在的な把持空間を学習することに基づいています。
この潜在空間はガウス過程分類器の低次元入力として使われ、生成器によって提案されたものの中から望ましい把握を選択する。
その結果,本手法はコーネルデータセット上ではgr-convnetとgg-cnnのどちらよりも優れており,特に少数のラベルしか使われていない場合は,80のラベルだけで80% (885シーン,244オブジェクト) を正しく選択できることがわかった。
結果はデータセット(91シーン、28オブジェクト)で似ています。
関連論文リスト
- ShapeSplat: A Large-scale Dataset of Gaussian Splats and Their Self-Supervised Pretraining [104.34751911174196]
ShapeNetとModelNetを用いた大規模3DGSデータセットを構築した。
データセットのShapeSplatは、87のユニークなカテゴリから65Kのオブジェクトで構成されています。
textbftextitGaussian-MAEを導入し、ガウスパラメータからの表現学習の独特な利点を強調した。
論文 参考訳(メタデータ) (2024-08-20T14:49:14Z) - DatasetEquity: Are All Samples Created Equal? In The Quest For Equity
Within Datasets [4.833815605196965]
本稿では,機械学習におけるデータ不均衡に対処する新しい手法を提案する。
深い知覚埋め込みとクラスタリングを用いて、画像の外観に基づいてサンプル確率を計算する。
次に、これらの可能性を使って、提案された$bf Generalized Focal Loss$関数で、トレーニング中にサンプルを異なる重さで測定する。
論文 参考訳(メタデータ) (2023-08-19T02:11:49Z) - MaskCon: Masked Contrastive Learning for Coarse-Labelled Dataset [19.45520684918576]
我々は、@textbfMask$ed $textbfCon$trastive Learning($textbfMaskCon$)と呼ばれる対照的な学習方法を提案する。
各サンプルに対して,本手法は,他のサンプルに対して粗いラベルを付与して軟質ラベルを生成する。
提案手法は, 各種データセットにおける現状よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-03-22T17:08:31Z) - Data Selection for Language Models via Importance Resampling [90.9263039747723]
我々は、望まれるターゲット分布に合わせるために、大規模な未ラベルデータセットのサブセットを選択するという問題を形式化する。
我々は、LMデータ選択のために低次元で使用される古典的な重要度再サンプリング手法を拡張した。
DSIRフレームワークをhash n-gram機能でインスタンス化し、4.5時間で1億のドキュメントを選択できる。
論文 参考訳(メタデータ) (2023-02-06T23:57:56Z) - YoloCurvSeg: You Only Label One Noisy Skeleton for Vessel-style
Curvilinear Structure Segmentation [2.569463808509976]
データアノテーションコストとモデル性能の対立を軽減するために、弱教師付き学習(WSL)が提案されている。
そこで本稿では,YoloCurvSeg という,構造に対する特異な注釈付きセグメンテーションフレームワークを提案する。
YoloCurvSegは、各データセットで完全に教師されたパフォーマンスの97%以上を達成している。
論文 参考訳(メタデータ) (2022-12-11T18:15:40Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - AutoGeoLabel: Automated Label Generation for Geospatial Machine Learning [69.47585818994959]
リモートセンシングデータのためのラベルの自動生成のためのビッグデータ処理パイプラインを評価する。
我々は,大規模データプラットフォームであるIBM PAIRSを用いて,密集都市部でそのようなラベルを動的に生成する。
論文 参考訳(メタデータ) (2022-01-31T20:02:22Z) - CvS: Classification via Segmentation For Small Datasets [52.821178654631254]
本稿では,分類ラベルをセグメントマップの予測から導出する小型データセットのコスト効率の高い分類器であるCvSを提案する。
我々は,CvSが従来の手法よりもはるかに高い分類結果が得られることを示す多種多様な問題に対して,本フレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2021-10-29T18:41:15Z) - Multi-label Classification with Partial Annotations using Class-aware
Selective Loss [14.3159150577502]
大規模なマルチラベル分類データセットは、一般的に部分的に注釈付けされている。
部分的なラベリング問題を解析し、2つの重要なアイデアに基づいた解を提案する。
われわれの新しいアプローチにより、OpenImagesデータセット上で最先端の結果が得られる。
論文 参考訳(メタデータ) (2021-10-21T08:10:55Z) - Scalable Graph Neural Networks via Bidirectional Propagation [89.70835710988395]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータを学習するための新興分野である。
本稿では、特徴ベクトルとトレーニング/テストノードの両方から局所的な双方向伝搬プロセスを利用するスケーラブルなGNNであるGBPを提案する。
実証実験により、GBPは、トレーニング/テスト時間を大幅に減らして最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-10-29T08:55:33Z) - Learning High-Resolution Domain-Specific Representations with a GAN
Generator [5.8720142291102135]
本稿では,GANジェネレータが学習した表現を,軽量デコーダを用いてセマンティックセグメンテーションマップに簡単に投影できることを示す。
本稿では、教師なしドメイン固有の事前学習に使用できるGANジェネレータの表現を近似するLayerMatch方式を提案する。
また,LayerMatch-pretrained backboneの使用は,ImageNetの標準教師付き事前トレーニングよりも精度が高いことがわかった。
論文 参考訳(メタデータ) (2020-06-18T11:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。