論文の概要: REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter
- arxiv url: http://arxiv.org/abs/2104.14118v1
- Date: Thu, 29 Apr 2021 05:31:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 12:49:37.906823
- Title: REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter
- Title(参考訳): regrad:clutterにおける安全・物体特異的ロボット把持のための大規模関係把握データセット
- Authors: Hanbo Zhang, Deyu Yang, Han Wang, Binglei Zhao, Xuguang Lan, Nanning
Zheng
- Abstract要約: 本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
- 参考スコア(独自算出の注目度): 52.117388513480435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the impressive progress achieved in robust grasp detection, robots
are not skilled in sophisticated grasping tasks (e.g. search and grasp a
specific object in clutter). Such tasks involve not only grasping, but
comprehensive perception of the visual world (e.g. the relationship between
objects). Recently, the advanced deep learning techniques provide a promising
way for understanding the high-level visual concepts. It encourages robotic
researchers to explore solutions for such hard and complicated fields. However,
deep learning usually means data-hungry. The lack of data severely limits the
performance of deep-learning-based algorithms. In this paper, we present a new
dataset named \regrad to sustain the modeling of relationships among objects
and grasps. We collect the annotations of object poses, segmentations, grasps,
and relationships in each image for comprehensive perception of grasping. Our
dataset is collected in both forms of 2D images and 3D point clouds. Moreover,
since all the data are generated automatically, users are free to import their
own object models for the generation of as many data as they want. We have
released our dataset and codes. A video that demonstrates the process of data
generation is also available.
- Abstract(参考訳): 堅牢な把握検出で達成された印象的な進歩にもかかわらず、ロボットは洗練された把握タスク(例えば、ロボット)に熟練していない。
乱雑に特定の物体を探索してつかむこと
このようなタスクは、把握だけでなく、視覚世界に対する包括的認識(例えば、)も含む。
オブジェクト間の関係)。
近年,高度なディープラーニング技術は,高レベルの視覚概念を理解するための有望な手段となっている。
ロボット研究者たちは、そのような困難で複雑な分野のソリューションを探求することを奨励している。
しかし、ディープラーニングは通常データ不足を意味する。
データ不足はディープラーニングベースのアルゴリズムのパフォーマンスを著しく制限する。
本稿では,オブジェクト間の関係のモデル化を継続するために,<regrad>という新しいデータセットを提案する。
対象のポーズ,セグメンテーション,把握,関係のアノテーションを各画像に集め,把握の包括的認識を行う。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
さらに、すべてのデータは自動的に生成されるので、ユーザは好きなだけ多くのデータを生成するために、独自のオブジェクトモデルをインポートすることができる。
データセットとコードをリリースしました。
データ生成のプロセスを示すビデオも利用可能である。
関連論文リスト
- Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Scene-Aware
Ambidextrous Bin Picking via Physics-based Metaverse Synthesis [72.85526892440251]
本稿では,物理に基づくメタバース合成により構築した大規模写真リアリスティックビンピックデータセットであるMetaGraspNetを紹介する。
提案データセットは,82種類の記事に対して217kのRGBD画像を含み,オブジェクト検出,アモーダル認識,キーポイント検出,操作順序,および並列ジャウと真空グリップパー用のアンビデクストグリップラベルの完全なアノテーションを備える。
また,2.3k以上の完全アノテートされた高品質なRGBD画像からなる実際のデータセットを5段階の難易度と,異なるオブジェクトおよびレイアウト特性を評価するための見えないオブジェクトセットに分割する。
論文 参考訳(メタデータ) (2022-08-08T08:15:34Z) - A Review of Deep Learning Techniques for Markerless Human Motion on
Synthetic Datasets [0.0]
近年,人間の姿勢推定がコンピュータビジョンコミュニティで注目を集めている。
2次元画像のみに基づくアニメーションの骨格を予測できるモデルを提案する。
実装プロセスは、独自のデータセットにDeepLabCutを使用して、多くの必要なステップを実行する。
論文 参考訳(メタデータ) (2022-01-07T15:42:50Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - A Spacecraft Dataset for Detection, Segmentation and Parts Recognition [42.27081423489484]
本稿では,宇宙船検出,インスタンスのセグメンテーション,部分認識のためのデータセットをリリースする。
この研究の主な貢献は、宇宙ステーションと衛星の画像を用いたデータセットの開発である。
また、データセットのベンチマークとして、オブジェクト検出やインスタンスセグメンテーションにおける最先端の手法による評価も提供する。
論文 参考訳(メタデータ) (2021-06-15T14:36:56Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - Same Object, Different Grasps: Data and Semantic Knowledge for
Task-Oriented Grasping [40.95315009714416]
TaskGraspデータセットは、オブジェクトとタスクの両方で、以前のデータセットよりも桁違いに大きい。
本稿では、知識グラフにエンコードされたオブジェクトやタスクのセマンティック知識を利用して、新しいオブジェクトインスタンスやクラス、さらには新しいタスクに一般化するGCNGraspフレームワークを提案する。
我々は、未知の物体上で実際のロボットに対してタスク指向の把握を実行することで、我々のデータセットとモデルが現実世界に適用可能であることを実証する。
論文 参考訳(メタデータ) (2020-11-12T15:08:15Z) - Generating synthetic photogrammetric data for training deep learning
based 3D point cloud segmentation models [0.0]
I/ITSEC 2019で著者らは、3Dフォトグラムのポイントクラウド/ミームをセグメント化し、オブジェクト情報を抽出する、完全に自動化されたワークフローを発表した。
最終的な目標は、現実的な仮想環境を作成し、シミュレーションに必要な情報を提供することである。
論文 参考訳(メタデータ) (2020-08-21T18:50:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。