論文の概要: PokeFlex: A Real-World Dataset of Volumetric Deformable Objects for Robotics
- arxiv url: http://arxiv.org/abs/2410.07688v2
- Date: Tue, 28 Jan 2025 16:02:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 20:06:07.491216
- Title: PokeFlex: A Real-World Dataset of Volumetric Deformable Objects for Robotics
- Title(参考訳): PokeFlex: ロボットのためのボリューム変形可能なオブジェクトのリアルタイムデータセット
- Authors: Jan Obrist, Miguel Zamora, Hehui Zheng, Ronan Hinchet, Firat Ozdemir, Juan Zarate, Robert K. Katzschmann, Stelian Coros,
- Abstract要約: 実世界のマルチモーダルデータをペアでアノテートしたデータセットであるPokeFlexを提案する。
モダリティには、3Dテクスチャメッシュ、ポイントクラウド、RGBイメージ、深度マップなどがある。
このようなデータは、オンライン3Dメッシュ再構築など、いくつかのダウンストリームタスクに活用することができる。
- 参考スコア(独自算出の注目度): 17.533143584534155
- License:
- Abstract: Data-driven methods have shown great potential in solving challenging manipulation tasks; however, their application in the domain of deformable objects has been constrained, in part, by the lack of data. To address this lack, we propose PokeFlex, a dataset featuring real-world multimodal data that is paired and annotated. The modalities include 3D textured meshes, point clouds, RGB images, and depth maps. Such data can be leveraged for several downstream tasks, such as online 3D mesh reconstruction, and it can potentially enable underexplored applications such as the real-world deployment of traditional control methods based on mesh simulations. To deal with the challenges posed by real-world 3D mesh reconstruction, we leverage a professional volumetric capture system that allows complete 360{\deg} reconstruction. PokeFlex consists of 18 deformable objects with varying stiffness and shapes. Deformations are generated by dropping objects onto a flat surface or by poking the objects with a robot arm. Interaction wrenches and contact locations are also reported for the latter case. Using different data modalities, we demonstrated a use case for our dataset training models that, given the novelty of the multimodal nature of Pokeflex, constitute the state-of-the-art in multi-object online template-based mesh reconstruction from multimodal data, to the best of our knowledge. We refer the reader to our website ( https://pokeflex-dataset.github.io/ ) for further demos and examples.
- Abstract(参考訳): データ駆動の手法は、難しい操作タスクを解決する大きな可能性を示しているが、デフォルム可能なオブジェクトの領域におけるそれらの応用は、部分的にはデータの欠如によって制限されている。
この欠点に対処するため,実世界のマルチモーダルデータをペアでアノテートしたデータセットであるPokeFlexを提案する。
モダリティには、3Dテクスチャメッシュ、ポイントクラウド、RGBイメージ、深度マップなどがある。
このようなデータは、オンライン3Dメッシュ再構成など、いくつかのダウンストリームタスクに利用することができる。
実世界の3Dメッシュ再構築がもたらす課題に対処するために,360{\deg}の完全な再構築を可能にする,プロのボリュームキャプチャシステムを活用している。
PokeFlexは18個の変形可能なオブジェクトで構成されており、剛性や形状は様々である。
変形は、物体を平らな表面に落下させたり、ロボットアームで物体を突っ込んだりして起こる。
後者の場合、相互作用レンチや接触位置も報告される。
異なるデータモダリティを用いて、Pokeflexのマルチモーダルな性質の新規性を考えると、マルチモーダルデータからマルチモーダルデータへのテンプレートベースのメッシュ再構築における最先端技術を構成するデータセットトレーニングモデルのユースケースを実証した。
読者は私たちのウェブサイト(https://pokeflex-dataset.github.io/)を参照してください。
関連論文リスト
- Articulate AnyMesh: Open-Vocabulary 3D Articulated Objects Modeling [48.78204955169967]
Articulate Anymeshは,剛性のある3Dメッシュを,オープンな語彙で表現されたものに変換可能な,自動フレームワークである。
実験の結果、Articulate Anymeshは、ツール、おもちゃ、機械装置、車両など、大規模で高品質な3D関節オブジェクトを生成できることがわかった。
論文 参考訳(メタデータ) (2025-02-04T18:59:55Z) - CULTURE3D: Cultural Landmarks and Terrain Dataset for 3D Applications [11.486451047360248]
世界中から撮影された高解像度画像を用いた大規模きめ細粒度データセットを提案する。
われわれのデータセットはドローンで撮影した空中画像を使って構築されており、現実世界のサイトレイアウトや建築構造をより正確に把握することができる。
このデータセットは、アーキテクチャ再構築から仮想観光まで、さまざまな3Dアプリケーションをサポートするマルチモーダルデータとのシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2025-01-12T20:36:39Z) - DOFS: A Real-world 3D Deformable Object Dataset with Full Spatial Information for Dynamics Model Learning [7.513355021861478]
この研究は、完全な空間情報を持つ3次元変形可能な物体(例えば、弾塑性物体)のパイロットデータセットであるDOFSを提案する。
データセットは、アクティブな操作アクション、マルチビューのRGB-Dイメージ、よく登録されたポイントクラウド、3Dデフォルメメッシュ、セマンティクスによる3D占有で構成されている。
さらに, 弾塑性物体の力学をモデル化するための入力として, ダウンサンプリングされた3D占有力と動作を応用したニューラルネットワークを訓練した。
論文 参考訳(メタデータ) (2024-10-29T05:46:16Z) - MegaScenes: Scene-Level View Synthesis at Scale [69.21293001231993]
NVS (Scene-level novel view synthesis) は多くの視覚やグラフィックスの応用に基礎を置いている。
MegaScenesと呼ばれるインターネット写真コレクションから大規模なシーンレベルのデータセットを作成し、世界中の動き(SfM)から100K以上の構造を復元する。
我々は、最先端NVS手法の故障事例を分析し、生成一貫性を大幅に改善する。
論文 参考訳(メタデータ) (2024-06-17T17:55:55Z) - Total-Decom: Decomposed 3D Scene Reconstruction with Minimal Interaction [51.3632308129838]
人間のインタラクションを最小限に抑えた3次元再構成法であるTotal-Decomを提案する。
提案手法は,Segment Anything Model (SAM) とハイブリッド型暗黙的なニューラルサーフェス表現をシームレスに統合し,メッシュベースの領域成長技術を用いて正確な3次元オブジェクト分解を行う。
提案手法をベンチマークデータセット上で広範囲に評価し,アニメーションやシーン編集などの下流アプリケーションの可能性を示す。
論文 参考訳(メタデータ) (2024-03-28T11:12:33Z) - UniG3D: A Unified 3D Object Generation Dataset [75.49544172927749]
UniG3Dは、ShapeNetデータセット上に普遍的なデータ変換パイプラインを用いて構築された、統一された3Dオブジェクト生成データセットである。
このパイプラインは、各生の3Dモデルを包括的なマルチモーダルデータ表現に変換する。
データセットのデータソースの選択は、そのスケールと品質に基づいています。
論文 参考訳(メタデータ) (2023-06-19T07:03:45Z) - Parcel3D: Shape Reconstruction from Single RGB Images for Applications
in Transportation Logistics [62.997667081978825]
本研究では,ロジスティクスにおける損傷の防止と改ざん検出に焦点をあて,損傷の可能性のあるパーセルの3次元形状復元問題に取り組む。
本稿では,Google Scanned Objects (GSO)データセットに基づく新しい合成データセットParcel3Dを提案する。
本稿では,3次元境界ボックスと反復メッシュリファインメントを併用した,CubeRefine R-CNNという新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-18T13:55:51Z) - 3D Human Mesh Estimation from Virtual Markers [34.703241940871635]
体表面上の64個のランドマークキーポイントを学習する仮想マーカーを中間表現として提示する。
提案手法は3つのデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-03-21T10:30:43Z) - D3D-HOI: Dynamic 3D Human-Object Interactions from Videos [49.38319295373466]
本稿では,D3D-HOIについて紹介する。D3D-HOIは3次元オブジェクトのポーズ,形状,動きを,人間と物体の相互作用の時,地上の真理アノテーションを付加したモノクロビデオのデータセットである。
我々のデータセットは、様々な現実世界のシーンとカメラの視点から捉えた、いくつかの共通したオブジェクトで構成されている。
我々は、推定された3次元人間のポーズを利用して、物体の空間的レイアウトとダイナミクスをより正確に推定する。
論文 参考訳(メタデータ) (2021-08-19T00:49:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。