論文の概要: Robot Cooking with Stir-fry: Bimanual Non-prehensile Manipulation of
Semi-fluid Objects
- arxiv url: http://arxiv.org/abs/2205.05960v1
- Date: Thu, 12 May 2022 08:58:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 14:25:25.077729
- Title: Robot Cooking with Stir-fry: Bimanual Non-prehensile Manipulation of
Semi-fluid Objects
- Title(参考訳): スターフライを用いたロボット調理:半流動物体の2次元的非包括的操作
- Authors: Junjia Liu, Yiting Chen, Zhipeng Dong, Shixiong Wang, Sylvain Calinon,
Miao Li, and Fei Chen
- Abstract要約: 本文では,中国料理の調理法をバイマニアルロボットシステムに応用するアプローチについて述べる。
そこで本研究では,人間の実演から変形可能な物体の操作を学習するための分離されたフレームワークを提案する。
視覚的なフィードバックを加えることで、我々のフレームワークは自動的に動きを調整し、所望のスパイクフライ効果を達成することができる。
- 参考スコア(独自算出の注目度): 13.847796949856457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This letter describes an approach to achieve well-known Chinese cooking art
stir-fry on a bimanual robot system. Stir-fry requires a sequence of highly
dynamic coordinated movements, which is usually difficult to learn for a chef,
let alone transfer to robots. In this letter, we define a canonical stir-fry
movement, and then propose a decoupled framework for learning this deformable
object manipulation from human demonstration. First, the dual arms of the robot
are decoupled into different roles (a leader and follower) and learned with
classical and neural network-based methods separately, then the bimanual task
is transformed into a coordination problem. To obtain general bimanual
coordination, we secondly propose a Graph and Transformer based model --
Structured-Transformer, to capture the spatio-temporal relationship between
dual-arm movements. Finally, by adding visual feedback of content deformation,
our framework can adjust the movements automatically to achieve the desired
stir-fry effect. We verify the framework by a simulator and deploy it on a real
bimanual Panda robot system. The experimental results validate our framework
can realize the bimanual robot stir-fry motion and have the potential to extend
to other deformable objects with bimanual coordination.
- Abstract(参考訳): 本文では,中国料理の調理法をバイマニアルロボットシステムに応用するアプローチについて述べる。
スターフライは、非常に動的に協調した動きの連続を必要とするが、これは通常、シェフにとって学ぶのが難しい。
本稿では,この変形可能な物体の操作を人間の実演から学習するための分離された枠組みを提案する。
まず、ロボットの双腕を異なる役割(リーダーとフォロワ)に分離し、古典的およびニューラルネットワークベースの手法を別々に学習し、2つのタスクを協調問題に変換する。
本稿では,両腕運動の時空間的関係を捉えるために,グラフとトランスフォーマーに基づくモデル-Structured-Transformerを提案する。
最後に,コンテンツ変形の視覚的なフィードバックを加えることで,動きを自動的に調整し,所望のスターフライ効果を実現できる。
このフレームワークをシミュレータを用いて検証し,実際のパンダロボットシステムにデプロイする。
実験により, 本フレームワークは, 両手動ロボットの旋回フライ動作を実現し, 両手動調整により他の変形可能な物体にも拡張できる可能性が示された。
関連論文リスト
- Play to the Score: Stage-Guided Dynamic Multi-Sensory Fusion for Robotic Manipulation [48.37976143987515]
人間は、環境と対話する際に異なる感覚に柔軟に交互に変化する優れた才能を持っている。
そこで我々は,段階誘導型動的多感覚融合法であるMS-Botを提案する。
我々は、視覚、聴覚、触覚センサーを備えたロボットシステムを訓練し、困難なロボット操作タスクを達成する。
論文 参考訳(メタデータ) (2024-08-02T16:20:56Z) - Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - Neural Style Transfer with Twin-Delayed DDPG for Shared Control of
Robotic Manipulators [15.947412070402878]
ロボットマニピュレータの動作に一組のスタイルを移すためのフレームワークを提案する。
オートエンコーダアーキテクチャは、対象ロボットの動きの内容とスタイルを抽出し、定義する。
提案したニューラルポリシースタイルトランスファーTD3(NPST3)は、トレーニングされたスタイルを導入することでロボットの動きを変化させる。
論文 参考訳(メタデータ) (2024-02-01T16:14:32Z) - BiRP: Learning Robot Generalized Bimanual Coordination using Relative
Parameterization Method on Human Demonstration [2.301921384458527]
本研究は,ヒトの日常活動における主業務をリーダ・フォロワーと相乗的コーディネーションの2つのタイプに分けた。
本研究では,人間の実演からこれらの調整を学習するための相対パラメータ化手法を提案する。
本手法は,ロボットによる大規模操作モデルトレーニングのためのデータプラグインとして活用できる可能性が示唆されている。
論文 参考訳(メタデータ) (2023-07-12T05:58:59Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - IMoS: Intent-Driven Full-Body Motion Synthesis for Human-Object
Interactions [69.95820880360345]
そこで本研究では,仮想人物の全身動作を3Dオブジェクトで合成する最初のフレームワークを提案する。
本システムでは,オブジェクトと仮想文字の関連意図を入力テキストとして記述する。
その結果, 80%以上のシナリオにおいて, 合成された全身運動は参加者よりリアルに見えることがわかった。
論文 参考訳(メタデータ) (2022-12-14T23:59:24Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - A Transferable Legged Mobile Manipulation Framework Based on Disturbance
Predictive Control [15.044159090957292]
四足歩行ロボットにロボットアームを装着した足の移動操作は、ロボットの性能を大幅に向上させる。
本稿では,潜在動的アダプタを用いた強化学習スキームを低レベルコントローラに組み込んだ統合フレームワーク外乱予測制御を提案する。
論文 参考訳(メタデータ) (2022-03-02T14:54:10Z) - V-MAO: Generative Modeling for Multi-Arm Manipulation of Articulated
Objects [51.79035249464852]
本稿では,音声による物体のマルチアーム操作を学習するためのフレームワークを提案する。
本フレームワークは,各ロボットアームの剛部上の接触点分布を学習する変動生成モデルを含む。
論文 参考訳(メタデータ) (2021-11-07T02:31:09Z) - In-air Knotting of Rope using Dual-Arm Robot based on Deep Learning [8.365690203298966]
深層学習に基づく双腕二本指ロボットを用いて,ロープの空中結節を成功させた。
全ての対象状態に対応する適切なロボット動作のマニュアル記述を事前に作成することは困難である。
そこで我々は,ロボットに2つの深層ニューラルネットワークを訓練し,そのセンサモデレータから収集したデータに基づいてボクノットとオーバーハンドノットを行うよう指示するモデルを構築した。
論文 参考訳(メタデータ) (2021-03-17T02:11:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。