論文の概要: Human-robot co-manipulation of extended objects: Data-driven models and
control from analysis of human-human dyads
- arxiv url: http://arxiv.org/abs/2001.00991v1
- Date: Fri, 3 Jan 2020 21:23:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-14 17:46:43.223217
- Title: Human-robot co-manipulation of extended objects: Data-driven models and
control from analysis of human-human dyads
- Title(参考訳): 拡張オブジェクトのヒト-ロボット協調操作:データ駆動モデルとヒト-ヒトダイアドの解析からの制御
- Authors: Erich Mielke, Eric Townsend, David Wingate, and Marc D. Killpack
- Abstract要約: 我々は人間と人間のダイアド実験のデータを用いて、物理的な人間とロボットのコマニピュレーションタスクに使用する動きの意図を決定する。
我々は、過去の動きに基づく人間の意図を予測するために、人間と人間のトライアルの動作データに基づくディープニューラルネットワークを開発した。
- 参考スコア(独自算出の注目度): 2.7036498789349244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human teams are able to easily perform collaborative manipulation tasks.
However, for a robot and human to simultaneously manipulate an extended object
is a difficult task using existing methods from the literature. Our approach in
this paper is to use data from human-human dyad experiments to determine motion
intent which we use for a physical human-robot co-manipulation task. We first
present and analyze data from human-human dyads performing co-manipulation
tasks. We show that our human-human dyad data has interesting trends including
that interaction forces are non-negligible compared to the force required to
accelerate an object and that the beginning of a lateral movement is
characterized by distinct torque triggers from the leader of the dyad. We also
examine different metrics to quantify performance of different dyads. We also
develop a deep neural network based on motion data from human-human trials to
predict human intent based on past motion. We then show how force and motion
data can be used as a basis for robot control in a human-robot dyad. Finally,
we compare the performance of two controllers for human-robot co-manipulation
to human-human dyad performance.
- Abstract(参考訳): 人間のチームは、協調的な操作タスクを簡単に行うことができる。
しかし,ロボットと人間が同時に拡張物体を操作することは,既存の手法を用いて難しい課題である。
本稿では,人間-ロボットの協調作業に使用する動作意図を決定するために,人間のダイアド実験のデータを利用する。
まず,協調作業を行う人間と人間のダイナドのデータを提示し,分析する。
ヒトのダイアドデータは、物体の加速に必要な力に比べて相互作用力が無視できないこと、横動きの開始はダイドのリーダーからの異なるトルクトリガーによって特徴づけられることなど、興味深い傾向を示す。
また、異なるdyadのパフォーマンスを定量化するために、異なるメトリクスを調べます。
また,過去の動きに基づく人間の意図を予測するために,人間-人間間実験の動作データに基づく深層ニューラルネットワークを開発した。
次に,人間-ロボットダイナドにおけるロボット制御の基盤として,力と動きのデータをどのように利用できるかを示す。
最後に,ロボット協調操作のための2つのコントローラの性能と人間のダイアド性能を比較した。
関連論文リスト
- Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - HumanPlus: Humanoid Shadowing and Imitation from Humans [82.47551890765202]
ヒューマノイドが人間のデータから動きや自律的なスキルを学ぶためのフルスタックシステムを導入する。
まず、既存の40時間動作データセットを用いて、強化学習によるシミュレーションの低レベルポリシーを訓練する。
次に、自己中心型視覚を用いてスキルポリシーを訓練し、ヒューマノイドが自律的に異なるタスクを完了できるようにする。
論文 参考訳(メタデータ) (2024-06-15T00:41:34Z) - InteRACT: Transformer Models for Human Intent Prediction Conditioned on Robot Actions [7.574421886354134]
InteRACTアーキテクチャは、大規模な人間と人間のデータセットと小さな人間とロボットのデータセットの微細構造に関する条件付き意図予測モデルを事前訓練する。
実世界の協調的なロボット操作タスクについて評価し、条件付きモデルが様々な限界ベースラインよりも改善されていることを示す。
論文 参考訳(メタデータ) (2023-11-21T19:15:17Z) - SynH2R: Synthesizing Hand-Object Motions for Learning Human-to-Robot
Handovers [37.49601724575655]
視覚に基づく人間とロボットのハンドオーバは、人間とロボットのインタラクションにおいて重要かつ困難なタスクである。
本稿では,ロボットの訓練に適した人間のつかみ動作を生成するためのフレームワークを提案する。
これにより、以前の作業よりも100倍多くのオブジェクトで、総合的なトレーニングとテストデータを生成することができます。
論文 参考訳(メタデータ) (2023-11-09T18:57:02Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。