論文の概要: Teaching Robots to Build Simulations of Themselves
- arxiv url: http://arxiv.org/abs/2311.12151v2
- Date: Tue, 04 Mar 2025 20:45:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:49:46.568428
- Title: Teaching Robots to Build Simulations of Themselves
- Title(参考訳): ロボットがテーマのシミュレーションを作るための教育
- Authors: Yuhang Hu, Jiong Lin, Hod Lipson,
- Abstract要約: 本稿では,ロボットが簡単な生ビデオデータのみを用いて,形態,運動学,運動制御をモデル化し,予測できる自己教師付き学習フレームワークを提案する。
この自己学習型シミュレーションは, 正確な動作計画を可能にするだけでなく, 異常を検知し, 損傷から回復することを可能にする。
- 参考スコア(独自算出の注目度): 7.017225535341017
- License:
- Abstract: The emergence of vision catalysed a pivotal evolutionary advancement, enabling organisms not only to perceive but also to interact intelligently with their environment. This transformation is mirrored by the evolution of robotic systems, where the ability to leverage vision to simulate and predict their own dynamics marks a leap towards autonomy and self-awareness. Humans utilize vision to record experiences and internally simulate potential actions. For example, we can imagine that, if we stand up and raise our arms, the body will form a T shape without physical movement. Similarly, simulation allows robots to plan and predict the outcomes of potential actions without execution. Here we introduce a self-supervised learning framework to enable robots to model and predict their morphology, kinematics and motor control using only brief raw video data, eliminating the need for extensive real-world data collection and kinematic priors. By observing their own movements, akin to humans watching their reflection in a mirror, robots learn an ability to simulate themselves and predict their spatial motion for various tasks. Our results demonstrate that this self-learned simulation not only enables accurate motion planning but also allows the robot to detect abnormalities and recover from damage.
- Abstract(参考訳): 視覚の出現は、生物が知覚するだけでなく、環境と知的に相互作用することを可能にする重要な進化の進展を触媒とした。
この変革は、ロボットシステムの進化によって反映され、ビジョンを活用して自身のダイナミクスをシミュレートし、予測する能力は、自律性と自己認識への飛躍を表している。
人間は視覚を利用して経験を記録し、潜在的な行動を内部的にシミュレートする。
例えば、立ち上がって腕を上げれば、体は物理的な動きなしにT字型になる、という想像ができます。
同様に、シミュレーションにより、ロボットは実行せずに潜在的な行動の結果を計画し、予測することができる。
本稿では,ロボットが簡単な生のビデオデータのみを用いて,形態,運動学,運動制御をモデル化し,予測できるようにするための,自己教師型学習フレームワークを提案する。
鏡で反射を見ている人間に似た、自分の動きを観察することで、ロボットは自分自身をシミュレートし、様々なタスクのために空間的な動きを予測する能力を学ぶ。
この自己学習型シミュレーションは, 正確な動作計画を可能にするだけでなく, 異常を検知し, 損傷から回復することを可能にする。
関連論文リスト
- DiffGen: Robot Demonstration Generation via Differentiable Physics Simulation, Differentiable Rendering, and Vision-Language Model [72.66465487508556]
DiffGenは、微分可能な物理シミュレーション、微分可能なレンダリング、ビジョン言語モデルを統合する新しいフレームワークである。
言語命令の埋め込みとシミュレートされた観察の埋め込みとの距離を最小化することにより、現実的なロボットデモを生成することができる。
実験によると、DiffGenを使えば、人間の努力やトレーニング時間を最小限に抑えて、ロボットデータを効率よく、効果的に生成できる。
論文 参考訳(メタデータ) (2024-05-12T15:38:17Z) - Naturalistic Robot Arm Trajectory Generation via Representation Learning [4.7682079066346565]
家庭環境におけるマニピュレータロボットの統合は、より予測可能な人間のようなロボットの動きの必要性を示唆している。
自然主義的な運動軌跡を生成する方法の1つは、人間のデモ隊の模倣によるものである。
本稿では,自己回帰型ニューラルネットワークを用いた自己指導型模倣学習法について検討する。
論文 参考訳(メタデータ) (2023-09-14T09:26:03Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Real-to-Sim: Predicting Residual Errors of Robotic Systems with Sparse
Data using a Learning-based Unscented Kalman Filter [65.93205328894608]
我々は,動的・シミュレータモデルと実ロボット間の残差を学習する。
学習した残差誤差により、動的モデル、シミュレーション、および実際のハードウェア間の現実的ギャップをさらに埋めることができることを示す。
論文 参考訳(メタデータ) (2022-09-07T15:15:12Z) - Full-Body Visual Self-Modeling of Robot Morphologies [29.76701883250049]
身体の内部計算モデルは、ロボットや動物が行動の計画と制御を行う能力の基礎である。
完全データ駆動型自己モデリングの最近の進歩により、マシンはタスク非依存の相互作用データから直接フォワードキネマティクスを学習できるようになった。
ここでは、フォワードキネマティクスを直接モデル化するのではなく、空間占有クエリに答えることのできる、より有用な自己モデリング形式を提案する。
論文 参考訳(メタデータ) (2021-11-11T18:58:07Z) - Robot Learning from Randomized Simulations: A Review [59.992761565399185]
ディープラーニングがロボティクス研究のパラダイムシフトを引き起こし、大量のデータを必要とする方法が好まれている。
最先端のアプローチは、データ生成が高速かつ安価であるシミュレーションで学ぶ。
本稿では,ランダム化シミュレーションから学習する手法である「領域ランダム化」に焦点をあてる。
論文 参考訳(メタデータ) (2021-11-01T13:55:41Z) - Learning Bipedal Robot Locomotion from Human Movement [0.791553652441325]
本研究では、実世界の二足歩行ロボットに、モーションキャプチャーデータから直接の動きを教えるための強化学習に基づく手法を提案する。
本手法は,シミュレーション環境下でのトレーニングから,物理ロボット上での実行へシームレスに移行する。
本研究では,ダイナミックウォークサイクルから複雑なバランスや手振りに至るまでの動作を内製したヒューマノイドロボットについて実演する。
論文 参考訳(メタデータ) (2021-05-26T00:49:37Z) - URoboSim -- An Episodic Simulation Framework for Prospective Reasoning
in Robotic Agents [18.869243389210492]
URoboSimは、実際にこのタスクを実行する前に、ロボットが精神シミュレーションとしてタスクを実行できるロボットシミュレータです。
URoboSimの精神シミュレーションによる能力を示し、機械学習のためのデータを生成し、実際のロボットの信念状態として利用します。
論文 参考訳(メタデータ) (2020-12-08T14:23:24Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。