論文の概要: Visual Haptic Reasoning: Estimating Contact Forces by Observing
Deformable Object Interactions
- arxiv url: http://arxiv.org/abs/2208.05632v1
- Date: Thu, 11 Aug 2022 04:08:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-12 13:35:37.267615
- Title: Visual Haptic Reasoning: Estimating Contact Forces by Observing
Deformable Object Interactions
- Title(参考訳): 視覚的触覚推論:変形可能な物体相互作用の観察による接触力の推定
- Authors: Yufei Wang, David Held, Zackory Erickson
- Abstract要約: 本稿では,協調型ロボットが布を用いて視覚的触覚推論を行うための定式化を提案する。
物理シミュレーションで訓練された2つの異なるモデル表現は、触覚的推論を可能にする。
ロボット支援ドレッシング,入浴,皿洗い作業のシミュレーションにおいて,これらのモデルの定量的評価を行った。
- 参考スコア(独自算出の注目度): 14.647688803221293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robotic manipulation of highly deformable cloth presents a promising
opportunity to assist people with several daily tasks, such as washing dishes;
folding laundry; or dressing, bathing, and hygiene assistance for individuals
with severe motor impairments. In this work, we introduce a formulation that
enables a collaborative robot to perform visual haptic reasoning with cloth --
the act of inferring the location and magnitude of applied forces during
physical interaction. We present two distinct model representations, trained in
physics simulation, that enable haptic reasoning using only visual and robot
kinematic observations. We conducted quantitative evaluations of these models
in simulation for robot-assisted dressing, bathing, and dish washing tasks, and
demonstrate that the trained models can generalize across different tasks with
varying interactions, human body sizes, and object shapes. We also present
results with a real-world mobile manipulator, which used our simulation-trained
models to estimate applied contact forces while performing physically assistive
tasks with cloth. Videos can be found at our project webpage.
- Abstract(参考訳): 高度に変形可能な布のロボット操作は、深刻な運動障害を持つ人のために、洗濯、洗濯、入浴、衛生補助など、日々の作業を行う人々を助ける有望な機会を提供する。
本研究では,協調型ロボットが布を用いて視覚的触覚推論を行うための定式化を導入する。
物理シミュレーションで訓練された2つの異なるモデル表現を提示し,視覚とロボットのキネマティックな観察のみを用いて触覚推論を行う。
ロボット支援ドレッシング,入浴,食器洗浄作業のシミュレーションにおいて,これらのモデルの定量的評価を行い,トレーニングしたモデルが,インタラクション,人体サイズ,物体形状の異なる異なる異なるタスクにまたがって一般化できることを実証した。
また、実世界の移動マニピュレータを用いて、シミュレーション学習したモデルを用いて、布を用いて物理的に補助作業を行いながら、応用接触力を推定した。
ビデオはプロジェクトのWebページにある。
関連論文リスト
- Differentiable Robot Rendering [45.23538293501457]
本稿では,ロボット本体の視覚的外観を,その制御パラメータに対して直接微分可能とするロボットレンダリングについて紹介する。
画像からロボットのポーズを復元したり、視覚言語モデルを用いてロボットを制御するなど、その能力と用途を実演する。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Identifying Terrain Physical Parameters from Vision -- Towards Physical-Parameter-Aware Locomotion and Navigation [33.10872127224328]
視覚に基づく環境パラメータ推定のためのクロスモーダルな自己教師型学習フレームワークを提案する。
我々は物理デコーダをシミュレーションで訓練し、マルチモーダル入力から摩擦と剛性を予測した。
トレーニングされたネットワークは、物理的なパラメータを持つ現実世界のイメージのラベル付けを可能にし、デプロイ中にビジュアルネットワークをさらにトレーニングする。
論文 参考訳(メタデータ) (2024-08-29T14:35:14Z) - Controlling the World by Sleight of Hand [26.874176292105556]
我々は、物体と相互作用する人間の手のラベルなしビデオから学習することで、行動条件生成モデルを学ぶ。
画像と、所望のハンドインタラクションの形状/位置が与えられた場合、CosHandは、インタラクションが発生した後の未来のイメージを合成する。
実験により、結果のモデルが手動物体の相互作用の効果をよく予測できることが示されている。
論文 参考訳(メタデータ) (2024-08-13T18:33:45Z) - ManiFoundation Model for General-Purpose Robotic Manipulation of Contact Synthesis with Arbitrary Objects and Robots [24.035706461949715]
汎用ロボットが幅広い操作タスクをこなせるようなモデルを開発する必要がある。
本研究は,汎用ロボット操作の基礎モデルを構築するための包括的枠組みを導入する。
私たちのモデルは、平均的な成功率を約90%達成します。
論文 参考訳(メタデータ) (2024-05-11T09:18:37Z) - Self-Explainable Affordance Learning with Embodied Caption [63.88435741872204]
具体的キャプションを具現化したSelf-Explainable Affordance Learning (SEA)を紹介する。
SEAは、ロボットが意図を明確に表現し、説明可能な視覚言語キャプションと視覚能力学習のギャップを埋めることを可能にする。
本稿では, 簡便かつ効率的な方法で, 空き地と自己説明を効果的に組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-04-08T15:22:38Z) - RoboCraft: Learning to See, Simulate, and Shape Elasto-Plastic Objects
with Graph Networks [32.00371492516123]
弾塑性物体のモデリングと操作のためのモデルベース計画フレームワークを提案する。
我々のシステムであるRoboCraftは、グラフニューラルネットワーク(GNN)を用いて粒子ベースの力学モデルを学び、基礎となるシステムの構造を捉える。
実世界のロボットインタラクションデータの10分で、ロボットは制御信号を合成し、弾塑性の物体を様々な形状に変形させるダイナミックスモデルを学習できることを示す。
論文 参考訳(メタデータ) (2022-05-05T20:28:15Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - A robot that counts like a child: a developmental model of counting and
pointing [69.26619423111092]
実物を数えることができる新しい神経ロボティクスモデルを導入する。
このモデルにより,エンボディメントと数値認識の相互作用を調べることができる。
トレーニングされたモデルは、アイテムのセットをカウントすることができ、同時にそれらを指し示します。
論文 参考訳(メタデータ) (2020-08-05T21:06:27Z) - Use the Force, Luke! Learning to Predict Physical Forces by Simulating
Effects [79.351446087227]
物体と相互作用する人間の映像から接触点と物理的力の推測の問題に対処する。
具体的には、シミュレーションを用いて効果を予測し、推定された力がビデオに描かれたものと同じ効果をもたらすことを強制する。
論文 参考訳(メタデータ) (2020-03-26T17:20:23Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。