論文の概要: Hoi! -- A Multimodal Dataset for Force-Grounded, Cross-View Articulated Manipulation
- arxiv url: http://arxiv.org/abs/2512.04884v2
- Date: Tue, 10 Feb 2026 14:42:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.130131
- Title: Hoi! -- A Multimodal Dataset for Force-Grounded, Cross-View Articulated Manipulation
- Title(参考訳): Hoi! -- 力を取り囲むクロスビュー操作のためのマルチモーダルデータセット
- Authors: Tim Engelbracht, René Zurbrügg, Matteo Wohlrapp, Martin Büchner, Abhinav Valada, Marc Pollefeys, Hermann Blum, Zuria Bauer,
- Abstract要約: 本稿では,力場付きクロスビュー調音操作のためのデータセットを提案する。
データセットは381個の調音されたオブジェクトに3048個のシーケンスを含む。
- 参考スコア(独自算出の注目度): 53.99392085883293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a dataset for force-grounded, cross-view articulated manipulation that couples what is seen with what is done and what is felt during real human interaction. The dataset contains 3048 sequences across 381 articulated objects in 38 environments. Each object is operated under four embodiments - (i) human hand, (ii) human hand with a wrist-mounted camera, (iii) handheld UMI gripper, and (iv) a custom Hoi! gripper - where the tool embodiment provides synchronized end-effector forces and tactile sensing. Our dataset offers a holistic view of interaction understanding from video, enabling researchers to evaluate how well methods transfer between human and robotic viewpoints, but also investigate underexplored modalities such as force sensing and prediction. Further information can be found on the Website.
- Abstract(参考訳): 我々は,実際の人間同士のインタラクションにおいて,何が行われているのか,何を感じているのかを結合した,力場的,横断的な操作のためのデータセットを提案する。
データセットは381個の調音されたオブジェクトに3048個のシーケンスを含む。
各オブジェクトは4つの実施形態の下で操作されます。
人手; 人手; 人手; 人手
(二)手首にカメラを装着した人手
(三)手持ちのUMIグリップ、及び
(iv) カスタムのHoi! グッパー - ツールの具体化によって、同期したエンドエフェクター力と触覚センサが提供される。
我々のデータセットは、ビデオからのインタラクション理解の全体像を提供し、研究者は、人間とロボットの視点の間でのメソッドの移動がいかにうまく行われているかを評価するだけでなく、力覚や予測のような未探索のモダリティも調べることができる。
詳細はウェブサイトで確認できる。
関連論文リスト
- Articulated 3D Scene Graphs for Open-World Mobile Manipulation [55.97942733699124]
本報告では, セマンティックな3次元シーングラフを構築するためのフレームワークであるMoMa-SGについて述べる。
新たな統合的ツイスト推定法を用いて調音モデルを推定する。
また,Arti4D-Semanticデータセットについても紹介する。
論文 参考訳(メタデータ) (2026-02-18T10:40:35Z) - Grasp Like Humans: Learning Generalizable Multi-Fingered Grasping from Human Proprioceptive Sensorimotor Integration [26.351720551267846]
触覚と審美的知覚は、人間の器用な操作に欠かせないものであり、感覚運動器統合による物体の確実な把握を可能にしている。
本研究では,人間の直感的・自然な操作から模倣学習に基づくロボット実行へのスキル伝達を把握するための,新しい手袋による触覚的知覚予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-10T07:44:12Z) - Benchmarks and Challenges in Pose Estimation for Egocentric Hand Interactions with Objects [89.95728475983263]
ロボティクス、AR/VR、アクション認識、モーション生成といったタスクにおいて、自己中心的な視点からこのようなインタラクションを理解することが重要である。
我々は、AmblyHandsとARCTICデータセットに基づいたHANDS23チャレンジを、慎重に設計されたトレーニングとテストの分割に基づいて設計する。
提案手法の結果と近年のリーダーボードのベースラインに基づいて,3Dハンド(オブジェクト)再構成タスクの徹底的な解析を行う。
論文 参考訳(メタデータ) (2024-03-25T05:12:21Z) - HOH: Markerless Multimodal Human-Object-Human Handover Dataset with Large Object Count [4.441651788685931]
HOH(Human-Object-Human)ハンドオーバーデータセットは、136のオブジェクトを持つ大規模なオブジェクトカウントデータセットである。
HOHは自然な人間と人間のハンドオーバの相互作用を表し、マーカー付きデータセットによる課題を克服する。
これまでのHOHは、オブジェクト数、参加者数、役割逆転のペア数、総相互作用数で最大のハンドオーバデータセットである。
論文 参考訳(メタデータ) (2023-10-01T16:48:48Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - Video-based Pose-Estimation Data as Source for Transfer Learning in
Human Activity Recognition [71.91734471596433]
オンボディデバイスを用いたヒューマンアクティビティ認識(HAR)は、制約のない環境での特定の人間の行動を特定する。
これまでの研究は、トランスファーラーニングが、少ないデータでシナリオに対処するための良い戦略であることを実証した。
本稿では,人為的位置推定を目的としたデータセットを伝達学習の情報源として用いることを提案する。
論文 参考訳(メタデータ) (2022-12-02T18:19:36Z) - HANDS: A Multimodal Dataset for Modeling Towards Human Grasp Intent
Inference in Prosthetic Hands [3.7886097009023376]
未来の高度な義手は、ロボットハンドと人間のユーザーとの共有制御の改善の恩恵を受けると予想されている。
マルチモーダルセンサーデータには、視覚を含む様々な環境センサーと、人間の生理と行動センサーが含まれる。
環境状態と人間の意図推定のための融合手法は、これらの証拠の源を組み合わせることで、義手の動き計画と制御を支援する。
論文 参考訳(メタデータ) (2021-03-08T15:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。