論文の概要: Sim-MEES: Modular End-Effector System Grasping Dataset for Mobile
Manipulators in Cluttered Environments
- arxiv url: http://arxiv.org/abs/2305.10580v1
- Date: Wed, 17 May 2023 21:40:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-05-19 17:59:24.615078
- Title: Sim-MEES: Modular End-Effector System Grasping Dataset for Mobile
Manipulators in Cluttered Environments
- Title(参考訳): sim-mees: クラッタ環境における移動マニピュレータ用モジュール型エンドエフェクタシステム
- Authors: Juncheng Li, David J. Cappelleri
- Abstract要約: 本稿では,難易度や物理特性の異なる1,550個のオブジェクトを含む大規模合成データセットを提案する。
我々のデータセット生成プロセスは、クラスタリングされた環境全体の解析モデルと動的シミュレーションを組み合わせて、正確な把握ラベルを提供する。
- 参考スコア(独自算出の注目度): 10.414347878456852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present Sim-MEES: a large-scale synthetic dataset that
contains 1,550 objects with varying difficulty levels and physics properties,
as well as 11 million grasp labels for mobile manipulators to plan grasps using
different gripper modalities in cluttered environments. Our dataset generation
process combines analytic models and dynamic simulations of the entire
cluttered environment to provide accurate grasp labels. We provide a detailed
study of our proposed labeling process for both parallel jaw grippers and
suction cup grippers, comparing them with state-of-the-art methods to
demonstrate how Sim-MEES can provide precise grasp labels in cluttered
environments.
- Abstract(参考訳): 本稿では, 難易度と物理特性の異なる1,550個のオブジェクトを含む大規模合成データセットSim-MEESと, 分散環境におけるグリップパの異なるモダリティを用いてグリップを計画するモバイルマニピュレータのための1100万個のグリップラベルを提案する。
私たちのデータセット生成プロセスは、解析モデルとクラッタ環境全体の動的シミュレーションを組み合わせることで、正確な把握ラベルを提供する。
そこで本研究では, パラレル顎グリッパーと吸引カップグリッパーのラベリング法について, シムミートがクラッタ環境において正確な把握ラベルを提供できることを示すために, 最新の手法との比較を行った。
関連論文リスト
- Trajectory World Models for Heterogeneous Environments [67.27233466954814]
環境を横断するセンサーやアクチュエータの不均一性は、大規模な事前訓練された世界モデルを構築する上で大きな課題となる。
我々は80の環境から100万以上のトラジェクトリからなる統一データセットUniTrajを紹介した。
本稿では,様々なセンサやアクチュエータ情報を柔軟に処理し,環境ダイナミクスをコンテキスト内で捉えることのできる,新しいアーキテクチャであるTrajWorldを提案する。
論文 参考訳(メタデータ) (2025-02-03T13:59:08Z) - SynthmanticLiDAR: A Synthetic Dataset for Semantic Segmentation on LiDAR Imaging [8.193070135759717]
本稿では,LiDARセマンティックセグメンテーションを念頭に設計した改良型CARLAシミュレータを提案する。
我々はLiDAR画像のセマンティックセグメンテーションのための合成データセットであるSynthmanticLiDARを作成した。
この結果から,SynthmanticLiDARをトレーニングプロセスに組み込むことで,テストアルゴリズム全体の性能が向上することがわかった。
論文 参考訳(メタデータ) (2025-01-31T11:09:10Z) - GausSim: Foreseeing Reality by Gaussian Simulator for Elastic Objects [55.02281855589641]
GausSimは、ガウスカーネルを通して表現される現実の弾性物体の動的挙動をキャプチャするために設計された、ニューラルネットワークベースの新しいシミュレータである。
我々は連続体力学を活用し、各カーネルを連続体を表すCenter of Mass System (CMS)として扱う。
さらに、ガウスシムは質量や運動量保存のような明示的な物理制約を取り入れ、解釈可能な結果と堅牢で物理的に妥当なシミュレーションを確実にする。
論文 参考訳(メタデータ) (2024-12-23T18:58:17Z) - The Well: a Large-Scale Collection of Diverse Physics Simulations for Machine Learning [4.812580392361432]
ウェルは様々な物理系の数値シミュレーションの大規模なコレクションである。
これらのデータセットは、個別またはより広範なベンチマークスイートの一部として使用することができる。
モデルをトレーニングし、評価するための統合されたPyTorchインターフェースを提供する。
論文 参考訳(メタデータ) (2024-11-30T19:42:14Z) - SOOD++: Leveraging Unlabeled Data to Boost Oriented Object Detection [59.868772767818975]
本稿では,SOOD++ と呼ばれる簡易かつ効果的な半教師付きオブジェクト指向検出手法を提案する。
具体的には、空中画像からの物体は、通常任意の向き、小さなスケール、集約である。
様々なラベル付き環境下での多目的オブジェクトデータセットに対する大規模な実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-01T07:03:51Z) - AGILE: Approach-based Grasp Inference Learned from Element Decomposition [2.812395851874055]
人間は手動の位置情報を考慮して物体を把握できる。
本研究は、ロボットマニピュレータが物体を最も最適な方法で把握し、同じことを学べるようにする方法を提案する。
論文 参考訳(メタデータ) (2024-02-02T10:47:08Z) - Manifold Learning with Sparse Regularised Optimal Transport [0.17205106391379024]
実世界のデータセットはノイズの多い観測とサンプリングを受けており、基礎となる多様体に関する情報を蒸留することが大きな課題である。
本稿では,2次正規化を用いた最適輸送の対称版を利用する多様体学習法を提案する。
得られたカーネルは連続的な極限においてLaplace型演算子と整合性を証明し、ヘテロスケダスティックノイズに対する堅牢性を確立し、これらの結果をシミュレーションで示す。
論文 参考訳(メタデータ) (2023-07-19T08:05:46Z) - Sim-Suction: Learning a Suction Grasp Policy for Cluttered Environments
Using a Synthetic Benchmark [8.025760743074066]
Sim-Suctionは、動的なカメラ視点を持つモバイル操作プラットフォームのための堅牢なオブジェクト認識型吸引把握ポリシーである。
Sim-Suction-Datasetは、500の乱雑な環境と320万の注釈付き吸引グリップポーズで構成されている。
Sim-Suction-Pointnetは、Sim-Suction-Datasetからポイントワイズを学習することにより、ロバストな6次元吸引グリップポーズを生成する。
論文 参考訳(メタデータ) (2023-05-25T15:31:08Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Scene-Aware
Ambidextrous Bin Picking via Physics-based Metaverse Synthesis [72.85526892440251]
本稿では,物理に基づくメタバース合成により構築した大規模写真リアリスティックビンピックデータセットであるMetaGraspNetを紹介する。
提案データセットは,82種類の記事に対して217kのRGBD画像を含み,オブジェクト検出,アモーダル認識,キーポイント検出,操作順序,および並列ジャウと真空グリップパー用のアンビデクストグリップラベルの完全なアノテーションを備える。
また,2.3k以上の完全アノテートされた高品質なRGBD画像からなる実際のデータセットを5段階の難易度と,異なるオブジェクトおよびレイアウト特性を評価するための見えないオブジェクトセットに分割する。
論文 参考訳(メタデータ) (2022-08-08T08:15:34Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - BayesSimIG: Scalable Parameter Inference for Adaptive Domain
Randomization with IsaacGym [59.53949960353792]
BayesSimIGは、最近リリースされたNVIDIA IsaacGymと統合されたBayesSimの実装を提供するライブラリである。
BayesSimIGはNVIDIABoardと統合して、高次元の後方のスライスを簡単に視覚化する。
論文 参考訳(メタデータ) (2021-07-09T16:21:31Z) - Validation of Simulation-Based Testing: Bypassing Domain Shift with
Label-to-Image Synthesis [9.531148049378672]
本稿では,異なる転送可能性尺度とともに生成ラベル-画像合成モデルからなる新しいフレームワークを提案する。
シーンを駆動するセマンティックセグメンテーションタスクにおいて,本手法を実証的に検証する。
後者は実生活と合成テストを区別できるが、前者は自動車と歩行者の両方で0.7の驚くほど強い相関関係を観察する。
論文 参考訳(メタデータ) (2021-06-10T07:23:58Z) - Meta-Sim2: Unsupervised Learning of Scene Structure for Synthetic Data
Generation [88.04759848307687]
Meta-Sim2では,パラメータに加えてシーン構造を学習することを目指している。
強化学習(Reinforcement Learning)を使用してモデルをトレーニングし、トレーニング成功の鍵となる合成画像とターゲット画像の間に特徴空間のばらつきを設計する。
また,この手法は,他のベースラインシミュレーション手法と対照的に,生成したデータセット上でトレーニングしたオブジェクト検出器の性能を下流で向上させることを示す。
論文 参考訳(メタデータ) (2020-08-20T17:28:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。