論文の概要: Grasping a Handful: Sequential Multi-Object Dexterous Grasp Generation
- arxiv url: http://arxiv.org/abs/2503.22370v2
- Date: Mon, 31 Mar 2025 09:06:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 11:09:30.238237
- Title: Grasping a Handful: Sequential Multi-Object Dexterous Grasp Generation
- Title(参考訳): ハンディなグラフ作成:連続多目的デクスタースグラフ生成
- Authors: Haofei Lu, Yifei Dong, Zehang Weng, Jens Lundell, Danica Kragic,
- Abstract要約: 本稿では,多目的ロボットグリップサンプリングアルゴリズムSeqGraspについて紹介する。
本研究では,SeqGraspとSeqDiffuserをシミュレーションおよび実ロボット上で,最先端の非逐次的マルチオブジェクトグリップ生成法であるMultiGraspに対して実験的に評価した。
- 参考スコア(独自算出の注目度): 15.197415284543933
- License:
- Abstract: We introduce the sequential multi-object robotic grasp sampling algorithm SeqGrasp that can robustly synthesize stable grasps on diverse objects using the robotic hand's partial Degrees of Freedom (DoF). We use SeqGrasp to construct the large-scale Allegro Hand sequential grasping dataset SeqDataset and use it for training the diffusion-based sequential grasp generator SeqDiffuser. We experimentally evaluate SeqGrasp and SeqDiffuser against the state-of-the-art non-sequential multi-object grasp generation method MultiGrasp in simulation and on a real robot. The experimental results demonstrate that SeqGrasp and SeqDiffuser reach an 8.71%-43.33% higher grasp success rate than MultiGrasp. Furthermore, SeqDiffuser is approximately 1000 times faster at generating grasps than SeqGrasp and MultiGrasp.
- Abstract(参考訳): 本稿では,ロボットハンドの部分的自由度(DoF)を用いて,多目的ロボットグリップサンプリングアルゴリズムSeqGraspを紹介した。
SeqGraspを用いて、大規模なAllegro HandシーケンシャルグリーティングデータセットSeqDatasetを構築し、拡散に基づくシーケンシャルグリーティングジェネレータSeqDiffuserのトレーニングに使用する。
シミュレーションおよび実ロボットにおいて,SeqGraspとSeqDiffuserを,最先端の非逐次的マルチオブジェクトグリップ生成法であるMultiGraspに対して実験的に評価した。
実験の結果,SeqGraspとSeqDiffuserはMultiGraspよりも8.71%~43.33%高い把握成功率を示した。
さらに、SeqDiffuserは、SeqGraspやMultiGraspよりもグリップの生成が約1000倍高速である。
関連論文リスト
- FR-Spec: Accelerating Large-Vocabulary Language Models via Frequency-Ranked Speculative Sampling [59.8051705468084]
投機的サンプリングは,大規模言語モデルの自己回帰生成プロセスを促進する重要な手法として登場した。
本稿では、語彙空間圧縮によるドラフト候補選択を最適化する周波数ランクの投機的サンプリングフレームワークFR-Specを提案する。
論文 参考訳(メタデータ) (2025-02-20T18:58:10Z) - LazyDiT: Lazy Learning for the Acceleration of Diffusion Transformers [79.07412045476872]
拡散変換器は、様々な生成タスクの優越的なモデルとして登場してきた。
各拡散段階におけるモデル全体の実行は不要であることを示し、いくつかの計算は以前のステップの結果を遅延的に再利用することでスキップできることを示した。
遅延学習フレームワークを提案する。このフレームワークは,初期ステップからキャッシュされた結果を効率よく活用し,冗長な計算を省略する。
論文 参考訳(メタデータ) (2024-12-17T01:12:35Z) - Multi-GraspLLM: A Multimodal LLM for Multi-Hand Semantic Guided Grasp Generation [47.501835868042775]
自動接触アノテーションを備えた,最初の大規模マルチハンドグリップデータセットであるMulti-GraspSetを提案する。
そこで我々は,Multi-GraspLLMを提案する。
提案手法は実環境実験とシミュレータの両方において既存手法よりも優れている。
論文 参考訳(メタデータ) (2024-12-11T15:33:35Z) - Quasi-random Multi-Sample Inference for Large Language Models [1.647759094903376]
大規模言語モデル(LLM)は、しばしばマルチサンプルデコード戦略を備えている。
ビームサーチやサンプリングベース技術のような従来のテキスト生成手法には、顕著な制限がある。
本研究では,算術的サンプリングの可能性について検討し,祖先的サンプリングと対比する。
論文 参考訳(メタデータ) (2024-11-09T18:55:04Z) - Parallel Decoding via Hidden Transfer for Lossless Large Language Model Acceleration [54.897493351694195]
本稿では,複数連続するトークンを1つのフォワードパスで同時に復号する,新しい並列復号法,すなわちthithidden Transferを提案する。
加速度測定では,Medusa や Self-Speculative decoding など,単モデル加速技術よりも優れています。
論文 参考訳(メタデータ) (2024-04-18T09:17:06Z) - DMFC-GraspNet: Differentiable Multi-Fingered Robotic Grasp Generation in
Cluttered Scenes [22.835683657191936]
マルチフィンガーロボットグリップは、複雑なオブジェクト操作を行う可能性がある。
マルチフィンガーロボットグリップの現在の技術は、推論時間毎に1つのグリップしか予測しないことが多い。
本稿では,この課題に対処するための3つの主要なコントリビューションを持つ,微分可能なマルチフィンガーグリップ生成ネットワーク(DMFC-GraspNet)を提案する。
論文 参考訳(メタデータ) (2023-08-01T11:21:07Z) - DexGraspNet: A Large-Scale Robotic Dexterous Grasp Dataset for General
Objects Based on Simulation [10.783992625475081]
本稿では,ロボットデキスタラスグルーピングのための大規模シミュレーションデータセットDexGraspNetを提案する。
私たちはShadowHandという、ロボット工学でよく見られる豪華なグリップを使って、5355のオブジェクトに対して123万のグリップを生成します。
GraspIt!が生成した以前のデータセットと比較すると、私たちのデータセットはオブジェクトやグリップだけでなく、多様性や品質も高くなります。
論文 参考訳(メタデータ) (2022-10-06T06:09:16Z) - Paraformer: Fast and Accurate Parallel Transformer for
Non-autoregressive End-to-End Speech Recognition [62.83832841523525]
そこで我々はParaformerと呼ばれる高速かつ高精度な並列トランスを提案する。
出力トークンの数を正確に予測し、隠れた変数を抽出する。
10倍以上のスピードアップで、最先端のARトランスフォーマーに匹敵するパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2022-06-16T17:24:14Z) - Multi-FinGAN: Generative Coarse-To-Fine Sampling of Multi-Finger Grasps [46.316638161863025]
本稿では,rgb-d画像から直接高画質把握を合成する高速生成型多指把持サンプリング手法であるmulti-finganを提案する。
シミュレーションにおける790の把握と実際のフランカ・エミカ・パンダの20の把握に対する標準的な把握方法に対して,本手法を実験的に検証し,ベンチマークした。
驚くべきことに、私たちのアプローチはベースラインよりも最大20〜30倍速く、フィードバックベースの把握再計画とタスク情報把握への扉を開く重要な改善です。
論文 参考訳(メタデータ) (2020-12-17T16:08:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。