論文の概要: Realtime Motion Generation with Active Perception Using Attention
Mechanism for Cooking Robot
- arxiv url: http://arxiv.org/abs/2309.14837v1
- Date: Tue, 26 Sep 2023 11:05:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 14:03:22.916494
- Title: Realtime Motion Generation with Active Perception Using Attention
Mechanism for Cooking Robot
- Title(参考訳): 調理ロボットの注意機構を用いたアクティブ知覚によるリアルタイム動作生成
- Authors: Namiko Saito, Mayu Hiramoto, Ayuna Kubo, Kanata Suzuki, Hiroshi Ito,
Shigeki Sugano and Tetsuya Ogata
- Abstract要約: 我々はスクランブルエッグを本物の材料で調理する作業に取り組んだ。
ロボットは卵の状態を認識し、リアルタイムでかき混ぜる動きを調整する必要がある。
本稿では,センサ入力の重み付けが可能なアテンション機構を備えた予測リカレントニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 9.186595261712974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To support humans in their daily lives, robots are required to autonomously
learn, adapt to objects and environments, and perform the appropriate actions.
We tackled on the task of cooking scrambled eggs using real ingredients, in
which the robot needs to perceive the states of the egg and adjust stirring
movement in real time, while the egg is heated and the state changes
continuously. In previous works, handling changing objects was found to be
challenging because sensory information includes dynamical, both important or
noisy information, and the modality which should be focused on changes every
time, making it difficult to realize both perception and motion generation in
real time. We propose a predictive recurrent neural network with an attention
mechanism that can weigh the sensor input, distinguishing how important and
reliable each modality is, that realize quick and efficient perception and
motion generation. The model is trained with learning from the demonstration,
and allows the robot to acquire human-like skills. We validated the proposed
technique using the robot, Dry-AIREC, and with our learning model, it could
perform cooking eggs with unknown ingredients. The robot could change the
method of stirring and direction depending on the status of the egg, as in the
beginning it stirs in the whole pot, then subsequently, after the egg started
being heated, it starts flipping and splitting motion targeting specific areas,
although we did not explicitly indicate them.
- Abstract(参考訳): 人間を日常生活で支えるためには、ロボットは自律的に学習し、物体や環境に適応し、適切な行動を行う必要がある。
実際の材料を用いてスクランブルエッグを調理する作業に取り組んだところ、ロボットは卵の状態を認識し、卵を加熱し、状態を継続的に変化させながら、リアルタイムで刺激運動を調整する必要があることがわかった。
従来の研究では、知覚情報には動的情報、重要情報、ノイズ情報の両方が含まれており、常に変化に重きを置くべきモダリティがあるため、知覚と運動の両方をリアルタイムで実現することが困難であった。
センサ入力を重み付け、各モダリティの重要性と信頼性を識別し、迅速かつ効率的な知覚と運動生成を実現する、注意機構を備えた予測再帰型ニューラルネットワークを提案する。
モデルはデモから学習して訓練され、ロボットが人間のようなスキルを身につけることができる。
提案手法をロボットDry-AIRECを用いて検証し,学習モデルを用いて調理卵を未知の材料で調理できることを確認した。
ロボットは、卵の状態に応じてかき混ぜ方や方向を変えることができ、最初はポット全体をかき混ぜるが、その後、卵が加熱された後、特定の領域を対象とする動きを反転させ、分割する。
関連論文リスト
- Learning Object Properties Using Robot Proprioception via Differentiable Robot-Object Interaction [52.12746368727368]
微分可能シミュレーションは、システム識別の強力なツールとなっている。
本手法は,オブジェクト自体のデータに頼ることなく,ロボットからの情報を用いてオブジェクト特性を校正する。
低コストなロボットプラットフォームにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-04T20:48:38Z) - Play to the Score: Stage-Guided Dynamic Multi-Sensory Fusion for Robotic Manipulation [48.37976143987515]
人間は、環境と対話する際に異なる感覚に柔軟に交互に変化する優れた才能を持っている。
そこで我々は,段階誘導型動的多感覚融合法であるMS-Botを提案する。
我々は、視覚、聴覚、触覚センサーを備えたロボットシステムを訓練し、困難なロボット操作タスクを達成する。
論文 参考訳(メタデータ) (2024-08-02T16:20:56Z) - Naturalistic Robot Arm Trajectory Generation via Representation Learning [4.7682079066346565]
家庭環境におけるマニピュレータロボットの統合は、より予測可能な人間のようなロボットの動きの必要性を示唆している。
自然主義的な運動軌跡を生成する方法の1つは、人間のデモ隊の模倣によるものである。
本稿では,自己回帰型ニューラルネットワークを用いた自己指導型模倣学習法について検討する。
論文 参考訳(メタデータ) (2023-09-14T09:26:03Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Robot Cooking with Stir-fry: Bimanual Non-prehensile Manipulation of
Semi-fluid Objects [13.847796949856457]
本文では,中国料理の調理法をバイマニアルロボットシステムに応用するアプローチについて述べる。
そこで本研究では,人間の実演から変形可能な物体の操作を学習するための分離されたフレームワークを提案する。
視覚的なフィードバックを加えることで、我々のフレームワークは自動的に動きを調整し、所望のスパイクフライ効果を達成することができる。
論文 参考訳(メタデータ) (2022-05-12T08:58:30Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - From Movement Kinematics to Object Properties: Online Recognition of
Human Carefulness [112.28757246103099]
ロボットは、視覚だけで、人間のパートナーが物体を動かす際に注意を払っているかを、どのようにオンラインで推測できるかを示す。
我々は,低解像度カメラでも高い精度(最大81.3%)でこの推論を行うことができることを示した。
パートナーの行動を観察することによる動きの注意の迅速な認識により、ロボットはオブジェクトに対する行動に適応し、人間のパートナーと同じケアの度合いを示すことができる。
論文 参考訳(メタデータ) (2021-09-01T16:03:13Z) - Learning Bipedal Robot Locomotion from Human Movement [0.791553652441325]
本研究では、実世界の二足歩行ロボットに、モーションキャプチャーデータから直接の動きを教えるための強化学習に基づく手法を提案する。
本手法は,シミュレーション環境下でのトレーニングから,物理ロボット上での実行へシームレスに移行する。
本研究では,ダイナミックウォークサイクルから複雑なバランスや手振りに至るまでの動作を内製したヒューマノイドロボットについて実演する。
論文 参考訳(メタデータ) (2021-05-26T00:49:37Z) - Learning Agile Robotic Locomotion Skills by Imitating Animals [72.36395376558984]
動物の多様でアジャイルな運動スキルを再現することは、ロボット工学における長年の課題である。
そこで本研究では,現実世界の動物を模倣することで,足のロボットがアジャイルな運動能力を学ぶことができる模倣学習システムを提案する。
論文 参考訳(メタデータ) (2020-04-02T02:56:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。