論文の概要: Teaching Robots to Build Simulations of Themselves
- arxiv url: http://arxiv.org/abs/2311.12151v1
- Date: Mon, 20 Nov 2023 20:03:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 03:10:42.159326
- Title: Teaching Robots to Build Simulations of Themselves
- Title(参考訳): ロボットに自分自身のシミュレーションを
- Authors: Yuhang Hu, Jiong Lin, Hod Lipson
- Abstract要約: 本稿では,簡単な生ビデオデータのみを用いて,ロボットの形状,運動学,運動制御をモデル化し,予測するための自己教師付き学習フレームワークを提案する。
ロボットは自分の動きを観察することで、自分自身をシミュレートし、様々なタスクのために空間的な動きを予測する能力を学ぶ。
- 参考スコア(独自算出の注目度): 7.886658271375681
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simulation enables robots to plan and estimate the outcomes of prospective
actions without the need to physically execute them. We introduce a
self-supervised learning framework to enable robots model and predict their
morphology, kinematics and motor control using only brief raw video data,
eliminating the need for extensive real-world data collection and kinematic
priors. By observing their own movements, akin to humans watching their
reflection in a mirror, robots learn an ability to simulate themselves and
predict their spatial motion for various tasks. Our results demonstrate that
this self-learned simulation not only enables accurate motion planning but also
allows the robot to detect abnormalities and recover from damage.
- Abstract(参考訳): シミュレーションにより、ロボットは物理的に実行することなく、予測行動の結果を計画し、見積もることができる。
本稿では,ロボットが簡単な生のビデオデータのみを用いて,その形態,運動学,運動制御をモデル化し,予測するための自己教師付き学習フレームワークを提案する。
鏡で反射を見ている人間に似た、自分の動きを観察することで、ロボットは自分自身をシミュレートし、様々なタスクのために空間的な動きを予測する能力を学ぶ。
この自己学習型シミュレーションは, 正確な動作計画を可能にするだけでなく, 異常を検知し, 損傷から回復することを可能にする。
関連論文リスト
- DiffGen: Robot Demonstration Generation via Differentiable Physics Simulation, Differentiable Rendering, and Vision-Language Model [72.66465487508556]
DiffGenは、微分可能な物理シミュレーション、微分可能なレンダリング、ビジョン言語モデルを統合する新しいフレームワークである。
言語命令の埋め込みとシミュレートされた観察の埋め込みとの距離を最小化することにより、現実的なロボットデモを生成することができる。
実験によると、DiffGenを使えば、人間の努力やトレーニング時間を最小限に抑えて、ロボットデータを効率よく、効果的に生成できる。
論文 参考訳(メタデータ) (2024-05-12T15:38:17Z) - Naturalistic Robot Arm Trajectory Generation via Representation Learning [4.7682079066346565]
家庭環境におけるマニピュレータロボットの統合は、より予測可能な人間のようなロボットの動きの必要性を示唆している。
自然主義的な運動軌跡を生成する方法の1つは、人間のデモ隊の模倣によるものである。
本稿では,自己回帰型ニューラルネットワークを用いた自己指導型模倣学習法について検討する。
論文 参考訳(メタデータ) (2023-09-14T09:26:03Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Real-to-Sim: Predicting Residual Errors of Robotic Systems with Sparse
Data using a Learning-based Unscented Kalman Filter [65.93205328894608]
我々は,動的・シミュレータモデルと実ロボット間の残差を学習する。
学習した残差誤差により、動的モデル、シミュレーション、および実際のハードウェア間の現実的ギャップをさらに埋めることができることを示す。
論文 参考訳(メタデータ) (2022-09-07T15:15:12Z) - Full-Body Visual Self-Modeling of Robot Morphologies [29.76701883250049]
身体の内部計算モデルは、ロボットや動物が行動の計画と制御を行う能力の基礎である。
完全データ駆動型自己モデリングの最近の進歩により、マシンはタスク非依存の相互作用データから直接フォワードキネマティクスを学習できるようになった。
ここでは、フォワードキネマティクスを直接モデル化するのではなく、空間占有クエリに答えることのできる、より有用な自己モデリング形式を提案する。
論文 参考訳(メタデータ) (2021-11-11T18:58:07Z) - Robot Learning from Randomized Simulations: A Review [59.992761565399185]
ディープラーニングがロボティクス研究のパラダイムシフトを引き起こし、大量のデータを必要とする方法が好まれている。
最先端のアプローチは、データ生成が高速かつ安価であるシミュレーションで学ぶ。
本稿では,ランダム化シミュレーションから学習する手法である「領域ランダム化」に焦点をあてる。
論文 参考訳(メタデータ) (2021-11-01T13:55:41Z) - Learning Bipedal Robot Locomotion from Human Movement [0.791553652441325]
本研究では、実世界の二足歩行ロボットに、モーションキャプチャーデータから直接の動きを教えるための強化学習に基づく手法を提案する。
本手法は,シミュレーション環境下でのトレーニングから,物理ロボット上での実行へシームレスに移行する。
本研究では,ダイナミックウォークサイクルから複雑なバランスや手振りに至るまでの動作を内製したヒューマノイドロボットについて実演する。
論文 参考訳(メタデータ) (2021-05-26T00:49:37Z) - URoboSim -- An Episodic Simulation Framework for Prospective Reasoning
in Robotic Agents [18.869243389210492]
URoboSimは、実際にこのタスクを実行する前に、ロボットが精神シミュレーションとしてタスクを実行できるロボットシミュレータです。
URoboSimの精神シミュレーションによる能力を示し、機械学習のためのデータを生成し、実際のロボットの信念状態として利用します。
論文 参考訳(メタデータ) (2020-12-08T14:23:24Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。