論文の概要: FewSOL: A Dataset for Few-Shot Object Learning in Robotic Environments
- arxiv url: http://arxiv.org/abs/2207.03333v1
- Date: Wed, 6 Jul 2022 05:57:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-09 07:43:30.541770
- Title: FewSOL: A Dataset for Few-Shot Object Learning in Robotic Environments
- Title(参考訳): FewSOL:ロボット環境でのFew-Shotオブジェクト学習のためのデータセット
- Authors: Jishnu Jaykumar P and Yu-Wei Chao and Yu Xiang
- Abstract要約: 本稿では,オブジェクト認識のためのFew-Shot Object Learningデータセットについて紹介する。
私たちは、異なる視点から、オブジェクトごとに9つのRGB-D画像を持つ336の現実世界のオブジェクトをキャプチャしました。
評価結果から, ロボット環境下では, 数発の物体分類において, 改良の余地がまだ大きいことが示唆された。
- 参考スコア(独自算出の注目度): 21.393674766169543
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the Few-Shot Object Learning (FewSOL) dataset for object
recognition with a few images per object. We captured 336 real-world objects
with 9 RGB-D images per object from different views. Object segmentation masks,
object poses and object attributes are provided. In addition, synthetic images
generated using 330 3D object models are used to augment the dataset. We
investigated (i) few-shot object classification and (ii) joint object
segmentation and few-shot classification with the state-of-the-art methods for
few-shot learning and meta-learning using our dataset. The evaluation results
show that there is still a large margin to be improved for few-shot object
classification in robotic environments. Our dataset can be used to study a set
of few-shot object recognition problems such as classification, detection and
segmentation, shape reconstruction, pose estimation, keypoint correspondences
and attribute recognition. The dataset and code are available at
https://irvlutd.github.io/FewSOL.
- Abstract(参考訳): 本稿では,Few-Shot Object Learning (FewSOL)データセットを導入し,オブジェクトごとの画像を数枚紹介する。
異なるビューから、オブジェクト毎に9つのrgb-dイメージを持つ336の現実世界オブジェクトをキャプチャした。
オブジェクトセグメンテーションマスク、オブジェクトポーズ、オブジェクト属性が提供される。
さらに、330の3dオブジェクトモデルで生成された合成画像を使用してデータセットを補完する。
調査しました
(i)被写体分類、及び
(ii)データセットを用いたマイラルショット学習とメタラーニングのための最先端手法による共同オブジェクトセグメンテーションとマイラルショット分類
評価結果から, ロボット環境では, 数発の物体分類において, 改良の余地がまだ大きいことがわかった。
我々のデータセットは、分類、検出とセグメンテーション、形状再構成、ポーズ推定、キーポイント対応、属性認識といった、いくつかのショットオブジェクト認識問題の研究に利用できる。
データセットとコードはhttps://irvlutd.github.io/fewsol.com/で入手できる。
関連論文リスト
- Chat-3D v2: Bridging 3D Scene and Large Language Models with Object
Identifiers [62.232809030044116]
会話中にオブジェクトを自由に参照するためにオブジェクト識別子を導入する。
本稿では,属性認識トークンと関係認識トークンを各オブジェクトに対して学習する2段階アライメント手法を提案する。
ScanQA、ScanRefer、Nr3D/Sr3Dといった従来のデータセットで行った実験は、提案手法の有効性を示した。
論文 参考訳(メタデータ) (2023-12-13T14:27:45Z) - LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - DoUnseen: Tuning-Free Class-Adaptive Object Detection of Unseen Objects
for Robotic Grasping [1.6317061277457001]
我々は、微調整を必要としないオブジェクト検出器を開発し、オブジェクトのいくつかの画像をキャプチャすることで、任意のオブジェクトをクラスとして追加できる。
クラス適応型オブジェクト検出器を未知のデータセット上で評価し、それらのデータセット上で訓練されたMask R-CNNと比較する。
論文 参考訳(メタデータ) (2023-04-06T02:45:39Z) - SupeRGB-D: Zero-shot Instance Segmentation in Cluttered Indoor
Environments [67.34330257205525]
本研究では,RGB-Dデータからゼロショットのインスタンスセグメンテーション(ZSIS)を探索し,意味的カテゴリに依存しない方法で未知のオブジェクトを識別する。
本稿では,注釈付きオブジェクトを用いて画素のオブジェクト性」を学習し,乱雑な屋内環境における未知のオブジェクトカテゴリに一般化する手法を提案する。
論文 参考訳(メタデータ) (2022-12-22T17:59:48Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - Automatic dataset generation for specific object detection [6.346581421948067]
本研究では,オブジェクトの詳細な特徴を,無関係な情報を得ることなく保存することができるオブジェクト・イン・シーン・イメージの合成手法を提案する。
その結果,合成画像では,物体の境界が背景とよく一致していることがわかった。
論文 参考訳(メタデータ) (2022-07-16T07:44:33Z) - Contrastive Object Detection Using Knowledge Graph Embeddings [72.17159795485915]
一つのホットアプローチで学習したクラス埋め込みの誤差統計と、自然言語処理や知識グラフから意味的に構造化された埋め込みを比較した。
本稿では,キーポイントベースおよびトランスフォーマーベースオブジェクト検出アーキテクチャの知識埋め込み設計を提案する。
論文 参考訳(メタデータ) (2021-12-21T17:10:21Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - Learning RGB-D Feature Embeddings for Unseen Object Instance
Segmentation [67.88276573341734]
合成データからRGB-D特徴埋め込みを学習し,オブジェクトのインスタンスセグメンテーションを未確認する手法を提案する。
距離学習損失関数を用いて画素単位の機能埋め込みを学習する。
新たな2段階クラスタリングアルゴリズムにより,セグメンテーションの精度をさらに向上する。
論文 参考訳(メタデータ) (2020-07-30T00:23:07Z) - Neural Object Learning for 6D Pose Estimation Using a Few Cluttered
Images [30.240630713652035]
近年のオブジェクトの6次元ポーズ推定手法は、テクスチャ化された3次元モデルか、ターゲットポーズの全範囲をカバーする実像のいずれかを仮定している。
本稿では,乱雑な画像からのわずかな観察を組み合わせ,任意のポーズでオブジェクトの合成画像を生成するニューラルオブジェクト学習(NOL)を提案する。
論文 参考訳(メタデータ) (2020-05-07T19:33:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。