論文の概要: DA$^2$ Dataset: Toward Dexterity-Aware Dual-Arm Grasping
- arxiv url: http://arxiv.org/abs/2208.00408v1
- Date: Sun, 31 Jul 2022 10:02:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:34:58.928478
- Title: DA$^2$ Dataset: Toward Dexterity-Aware Dual-Arm Grasping
- Title(参考訳): DA$^2$データセット:Dexterity-Aware Dual-Arm Graspingに向けて
- Authors: Guangyao Zhai, Yu Zheng, Ziwei Xu, Xin Kong, Yong Liu, Benjamin Busam,
Yi Ren, Nassir Navab, Zhengyou Zhang
- Abstract要約: DA$2$は、任意の大物体に対して最適な2次元グリップペアを生成するための、最初の大規模デュアルアームデキスタリティ対応データセットである。
データセットには、6000以上のオブジェクトから生成される約9万組のパラレルジャウグリップが含まれている。
- 参考スコア(独自算出の注目度): 58.48762955493929
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce DA$^2$, the first large-scale dual-arm
dexterity-aware dataset for the generation of optimal bimanual grasping pairs
for arbitrary large objects. The dataset contains about 9M pairs of
parallel-jaw grasps, generated from more than 6000 objects and each labeled
with various grasp dexterity measures. In addition, we propose an end-to-end
dual-arm grasp evaluation model trained on the rendered scenes from this
dataset. We utilize the evaluation model as our baseline to show the value of
this novel and nontrivial dataset by both online analysis and real robot
experiments. All data and related code will be open-sourced at
https://sites.google.com/view/da2dataset.
- Abstract(参考訳): 本稿では,任意の大物体に対して最適な2次元グルーピングペアを生成するための,最初の大規模デュアルアームデキスタリティ対応データセットであるDA$^2$を紹介する。
データセットは、6000以上のオブジェクトから生成され、それぞれが様々な把持指標でラベル付けされた、約9m組のパラレルジャウ把持を含む。
さらに、このデータセットから描画シーンを訓練したエンドツーエンドの両腕グリップ評価モデルを提案する。
この評価モデルをベースラインとして,オンライン解析と実ロボット実験の両面で,この新奇で非自明なデータセットの価値を示す。
すべてのデータおよび関連コードはhttps://sites.google.com/view/da2datasetでオープンソース化される。
関連論文リスト
- Making Multi-Axis Gaussian Graphical Models Scalable to Millions of Samples and Features [0.30723404270319693]
我々は独立性を仮定することなく、$O(n2)$ランタイムと$O(n)$スペース複雑性を持つメソッドを導入する。
我々は,実世界の1000,000セルのscRNA-seqデータセットなど,前例のない大規模なデータセットに対して,我々のアプローチが適用可能であることを実証した。
論文 参考訳(メタデータ) (2024-07-29T11:15:25Z) - Diffusion Models as Data Mining Tools [87.77999285241219]
本稿では、画像合成のために訓練された生成モデルを視覚データマイニングのツールとして利用する方法について述べる。
特定のデータセットから画像を合成するために条件拡散モデルを微調整した後、これらのモデルを用いて典型性尺度を定義することができることを示す。
この尺度は、地理的位置、タイムスタンプ、セマンティックラベル、さらには病気の存在など、異なるデータラベルに対する典型的な視覚的要素がどのように存在するかを評価する。
論文 参考訳(メタデータ) (2024-07-20T17:14:31Z) - Paved2Paradise: Cost-Effective and Scalable LiDAR Simulation by Factoring the Real World [0.2630859234884723]
Paved2Paradiseは、スクラッチからライダーデータセットを生成するためのシンプルで費用対効果の高いアプローチである。
Paved2Paradise合成データのみを訓練したモデルが果樹園におけるヒトの検出に極めて有効であることを示す。
論文 参考訳(メタデータ) (2023-12-02T12:23:07Z) - DAMEX: Dataset-aware Mixture-of-Experts for visual understanding of
mixture-of-datasets [34.780870585656395]
本稿では,データセット・アウェア・ミックス・オブ・エクササイズ,DAMEXを提案する。
データセットトークンをマップされた専門家にルーティングすることを学ぶことで、データセットのエキスパートになるように専門家を訓練します。
Universal Object-Detection Benchmarkの実験では、既存の最先端技術よりも優れています。
論文 参考訳(メタデータ) (2023-11-08T18:55:24Z) - DexGraspNet: A Large-Scale Robotic Dexterous Grasp Dataset for General
Objects Based on Simulation [10.783992625475081]
本稿では,ロボットデキスタラスグルーピングのための大規模シミュレーションデータセットDexGraspNetを提案する。
私たちはShadowHandという、ロボット工学でよく見られる豪華なグリップを使って、5355のオブジェクトに対して123万のグリップを生成します。
GraspIt!が生成した以前のデータセットと比較すると、私たちのデータセットはオブジェクトやグリップだけでなく、多様性や品質も高くなります。
論文 参考訳(メタデータ) (2022-10-06T06:09:16Z) - MSeg: A Composite Dataset for Multi-domain Semantic Segmentation [100.17755160696939]
セマンティックセグメンテーションデータセットを異なるドメインから統合する合成データセットであるMSegを提案する。
一般化と画素レベルのアノテーションのアライメントを調整し,2万枚以上のオブジェクトマスクを8万枚以上の画像で再現する。
MSegでトレーニングされたモデルは、WildDash-v1のリーダーボードで、トレーニング中にWildDashのデータに触れることなく、堅牢なセマンティックセグメンテーションのためにランク付けされている。
論文 参考訳(メタデータ) (2021-12-27T16:16:35Z) - ACRONYM: A Large-Scale Grasp Dataset Based on Simulation [64.37675024289857]
ACRONYMは物理シミュレーションに基づくロボットグリップ計画のためのデータセットである。
データセットには17.7Mのパラレルジャウグリップが含まれ、262の異なるカテゴリから8872のオブジェクトにまたがっている。
我々は、この大規模で多様なデータセットの価値を、2つの最先端の学習に基づく把握計画アルゴリズムの訓練に利用することで示す。
論文 参考訳(メタデータ) (2020-11-18T23:24:00Z) - AutoSimulate: (Quickly) Learning Synthetic Data Generation [70.82315853981838]
目的の新たな微分可能近似に基づく最適な合成データ生成法を提案する。
提案手法は,学習データ生成の高速化(最大50Times$)と,実世界のテストデータセットの精度向上(+8.7%$)を実現している。
論文 参考訳(メタデータ) (2020-08-16T11:36:11Z) - On the Difference Between the Information Bottleneck and the Deep
Information Bottleneck [81.89141311906552]
本稿では,Deep Variational Information Bottleneckとその導出に必要な仮定について再考する。
後者のマルコフ連鎖のみを満たすべき$I(T;Y)$に対して下界を最適化することで、この制限を回避する方法を示す。
論文 参考訳(メタデータ) (2019-12-31T18:31:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。