論文の概要: SuctionNet-1Billion: A Large-Scale Benchmark for Suction Grasping
- arxiv url: http://arxiv.org/abs/2103.12311v1
- Date: Tue, 23 Mar 2021 05:02:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 02:11:02.876727
- Title: SuctionNet-1Billion: A Large-Scale Benchmark for Suction Grasping
- Title(参考訳): SuctionNet-1Billion: Suction Grasping用の大規模ベンチマーク
- Authors: Hanwen Cao, Hao-Shu Fang, Wenhai Liu, Cewu Lu
- Abstract要約: 吸引つかみのシール形成とレンチ抵抗を解析的に評価する新しい物理モデルを提案する。
現実世界の混乱したシナリオで収集された大規模データセットにアノテーションを生成するために、2段階の手法が採用されている。
連続運転空間における吸入ポーズを評価するための標準オンライン評価システムを提案する。
- 参考スコア(独自算出の注目度): 47.221326169627666
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Suction is an important solution for the longstanding robotic grasping
problem. Compared with other kinds of grasping, suction grasping is easier to
represent and often more reliable in practice. Though preferred in many
scenarios, it is not fully investigated and lacks sufficient training data and
evaluation benchmarks. To address that, firstly, we propose a new physical
model to analytically evaluate seal formation and wrench resistance of a
suction grasping, which are two key aspects of grasp success. Secondly, a
two-step methodology is adopted to generate annotations on a large-scale
dataset collected in real-world cluttered scenarios. Thirdly, a standard online
evaluation system is proposed to evaluate suction poses in continuous operation
space, which can benchmark different algorithms fairly without the need of
exhaustive labeling. Real-robot experiments are conducted to show that our
annotations align well with real world. Meanwhile, we propose a method to
predict numerous suction poses from an RGB-D image of a cluttered scene and
demonstrate our superiority against several previous methods. Result analyses
are further provided to help readers better understand the challenges in this
area. Data and source code are publicly available at www.graspnet.net.
- Abstract(参考訳): 吸引は長年にわたるロボットの把握問題にとって重要な解決法である。
他の種類の把持と比較すると、吸引把持は表現が容易であり、しばしば実用上より信頼性が高い。
多くのシナリオで好まれるが、十分に調査されておらず、十分なトレーニングデータや評価ベンチマークが欠けている。
そこで本研究では, まず, 吸引把持のシール形成とレンチ抵抗を解析的に評価するための新しい物理モデルを提案する。
第2に,実世界の雑然としたシナリオで収集された大規模データセット上でアノテーションを生成するために,2段階の手法が採用されている。
第3に, 連続操作空間における吸入ポーズを評価するための標準オンライン評価システムを提案し, 徹底的なラベル付けを必要とせずに, 異なるアルゴリズムを公平にベンチマークできる。
実ロボット実験により,アノテーションが実世界とよく一致していることを示す。
一方,散らばったシーンのRGB-D画像から多数の吸引ポーズを予測し,従来手法に対する優位性を実証する手法を提案する。
結果分析は、読者がこの分野の課題をより深く理解するのに役立ちます。
データとソースコードはwww.graspnet.netで公開されている。
関連論文リスト
- Graspness Discovery in Clutters for Fast and Accurate Grasp Detection [57.81325062171676]
グレープネス(graspness)とは、散らばった場面で把握可能な領域を区別する幾何学的手がかりに基づく品質である。
本研究では,探索過程を近似するカスケード把握モデルを構築した。
大規模なベンチマークであるGraspNet-1Billionの実験では,提案手法が従来の手法よりも大きなマージンで優れていたことが示されている。
論文 参考訳(メタデータ) (2024-06-17T02:06:47Z) - Embarrassingly Simple Scribble Supervision for 3D Medical Segmentation [0.8391490466934672]
この課題の解決策として、スクリブル教師付き学習が登場し、大規模なデータセットを作成する際のアノテーションの労力の削減を約束する。
そこで本研究では,解剖学と病理学の多様さを網羅した7つのデータセットからなるベンチマークを提案する。
nnU-Netを用いた評価の結果,既存の手法の多くは一般化の欠如に悩まされているが,提案手法は一貫して最先端の性能を提供する。
論文 参考訳(メタデータ) (2024-03-19T15:41:16Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - The Trade-off between Universality and Label Efficiency of
Representations from Contrastive Learning [32.15608637930748]
2つのデシダラタの間にはトレードオフがあることを示し、同時に両方を達成できない可能性があることを示す。
我々は、理論データモデルを用いて分析を行い、より多様な事前学習データにより、異なるタスクに対してより多様な機能が得られる一方で、タスク固有の機能に重点を置いていないことを示す。
論文 参考訳(メタデータ) (2023-02-28T22:14:33Z) - Benchmarking Deep Models for Salient Object Detection [67.07247772280212]
汎用SALOD(General SALient Object Detection)ベンチマークを構築し,複数のSOD手法の総合的な比較を行った。
以上の実験では、既存の損失関数は、通常いくつかの指標に特化しているが、他の指標には劣る結果が報告されている。
我々は,深層ネットワークに画素レベルと画像レベルの両方の監視信号を統合することにより,より識別的な特徴を学習するためのエッジ・アウェア・ロス(EA)を提案する。
論文 参考訳(メタデータ) (2022-02-07T03:43:16Z) - Occlusion-Robust Object Pose Estimation with Holistic Representation [42.27081423489484]
State-of-the-art(SOTA)オブジェクトのポーズ推定器は2段階のアプローチを取る。
我々は,新しいブロック・アンド・ブラックアウトバッチ拡張技術を開発した。
また,総合的なポーズ表現学習を促進するためのマルチ精度監視アーキテクチャも開発している。
論文 参考訳(メタデータ) (2021-10-22T08:00:26Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z) - DGSAC: Density Guided Sampling and Consensus [4.808421423598809]
Kernel Residual Densityは、inlierとoutlierの主な差別化要因である。
本稿では,2つのモデル選択アルゴリズム,最適2次プログラム,および欲求性を提案する。
平面分割, 運動分割, 点推定, 3次元点雲への平面整合, 直線, 円環整合など, 様々なタスクについて評価を行った。
論文 参考訳(メタデータ) (2020-06-03T17:42:53Z) - Learning multiview 3D point cloud registration [74.39499501822682]
本稿では,エンドツーエンドで学習可能なマルチビュー3Dポイントクラウド登録アルゴリズムを提案する。
このアプローチは、エンドツーエンドのトレーニングが可能で、計算コストが小さく、最先端のマージンよりも優れています。
論文 参考訳(メタデータ) (2020-01-15T03:42:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。