論文の概要: Full-Body Visual Self-Modeling of Robot Morphologies
- arxiv url: http://arxiv.org/abs/2111.06389v1
- Date: Thu, 11 Nov 2021 18:58:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 13:07:01.552299
- Title: Full-Body Visual Self-Modeling of Robot Morphologies
- Title(参考訳): ロボット形態の全身視覚自己モデリング
- Authors: Boyuan Chen, Robert Kwiatkowski, Carl Vondrick, Hod Lipson
- Abstract要約: 身体の内部計算モデルは、ロボットや動物が行動の計画と制御を行う能力の基礎である。
完全データ駆動型自己モデリングの最近の進歩により、マシンはタスク非依存の相互作用データから直接フォワードキネマティクスを学習できるようになった。
ここでは、フォワードキネマティクスを直接モデル化するのではなく、空間占有クエリに答えることのできる、より有用な自己モデリング形式を提案する。
- 参考スコア(独自算出の注目度): 29.76701883250049
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Internal computational models of physical bodies are fundamental to the
ability of robots and animals alike to plan and control their actions. These
"self-models" allow robots to consider outcomes of multiple possible future
actions, without trying them out in physical reality. Recent progress in fully
data-driven self-modeling has enabled machines to learn their own forward
kinematics directly from task-agnostic interaction data. However,
forward-kinema\-tics models can only predict limited aspects of the morphology,
such as the position of end effectors or velocity of joints and masses. A key
challenge is to model the entire morphology and kinematics, without prior
knowledge of what aspects of the morphology will be relevant to future tasks.
Here, we propose that instead of directly modeling forward-kinematics, a more
useful form of self-modeling is one that could answer space occupancy queries,
conditioned on the robot's state. Such query-driven self models are continuous
in the spatial domain, memory efficient, fully differentiable and kinematic
aware. In physical experiments, we demonstrate how a visual self-model is
accurate to about one percent of the workspace, enabling the robot to perform
various motion planning and control tasks. Visual self-modeling can also allow
the robot to detect, localize and recover from real-world damage, leading to
improved machine resiliency. Our project website is at:
https://robot-morphology.cs.columbia.edu/
- Abstract(参考訳): 身体の内部計算モデルは、ロボットや動物が行動の計画や制御を行う能力に基礎を置いている。
これらの「自己モデル」により、ロボットは物理的な現実で試すことなく、複数の将来の行動の結果を考慮できる。
完全なデータ駆動型自己モデリングの最近の進歩により、マシンはタスクに依存しない対話データから直接フォワードキネマティックスを学ぶことができる。
しかし、フォワード-キネマ-ticsモデルは、エンドエフェクタの位置や関節と質量の速度など、形態学の限られた側面のみを予測できる。
主要な課題は、形態学のどの側面が将来のタスクに関係するかを事前に知ることなく、形態学と運動学全体をモデル化することである。
本稿では,フォワードキネマティクスを直接モデル化するのではなく,ロボットの状態に応じた空間占有クエリに答えることのできる,より有用な自己モデリング形式を提案する。
このようなクエリ駆動の自己モデルは、空間領域において連続的であり、メモリ効率が良く、完全に微分可能で、キネマティックな認識である。
物理的実験では、視覚的な自己モデルが作業空間の約1%に正確であることを示し、ロボットが様々な動作計画と制御タスクを実行できるようにする。
視覚的な自己モデリングにより、ロボットは現実世界の損傷を検出し、ローカライズし、回復することができる。
私たちのプロジェクトwebサイトは、https://robot-morphology.cs.columbia.edu/にあります。
関連論文リスト
- Differentiable Robot Rendering [45.23538293501457]
本稿では,ロボット本体の視覚的外観を,その制御パラメータに対して直接微分可能とするロボットレンダリングについて紹介する。
画像からロボットのポーズを復元したり、視覚言語モデルを用いてロボットを制御するなど、その能力と用途を実演する。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Teaching Robots to Build Simulations of Themselves [7.886658271375681]
本稿では,簡単な生ビデオデータのみを用いて,ロボットの形状,運動学,運動制御をモデル化し,予測するための自己教師付き学習フレームワークを提案する。
ロボットは自分の動きを観察することで、自分自身をシミュレートし、様々なタスクのために空間的な動きを予測する能力を学ぶ。
論文 参考訳(メタデータ) (2023-11-20T20:03:34Z) - High-Degrees-of-Freedom Dynamic Neural Fields for Robot Self-Modeling and Motion Planning [6.229216953398305]
ロボットの自己モデル(英: Robot self-model)は、ロボットの運動計画タスクに使用できる身体形態の表現である。
本研究では,高次自由度を条件とした動的オブジェクト中心シーンのためのエンコーダに基づくニューラル密度場アーキテクチャを提案する。
7-DOFロボットテストセットでは、学習された自己モデルは、ロボットの次元ワークスペースの2%のChamfer-L2距離を達成する。
論文 参考訳(メタデータ) (2023-10-05T16:01:29Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - RT-1: Robotics Transformer for Real-World Control at Scale [98.09428483862165]
我々は,有望なスケーラブルなモデル特性を示す,ロボティクストランスフォーマーと呼ばれるモデルクラスを提示する。
実世界の課題を遂行する実ロボットの大規模データ収集に基づいて,様々なモデルクラスと,データサイズ,モデルサイズ,データの多様性の関数として一般化する能力について検証した。
論文 参考訳(メタデータ) (2022-12-13T18:55:15Z) - On the Origins of Self-Modeling [27.888203008100113]
自己モデリング(Self-Modeling)とは、動物や機械などのエージェントが、自身のダイナミクスの予測モデルを作成する過程である。
本稿では,ロボットの複雑さに対する自己モデリングの利点を定量化する。
論文 参考訳(メタデータ) (2022-09-05T15:27:04Z) - RoboCraft: Learning to See, Simulate, and Shape Elasto-Plastic Objects
with Graph Networks [32.00371492516123]
弾塑性物体のモデリングと操作のためのモデルベース計画フレームワークを提案する。
我々のシステムであるRoboCraftは、グラフニューラルネットワーク(GNN)を用いて粒子ベースの力学モデルを学び、基礎となるシステムの構造を捉える。
実世界のロボットインタラクションデータの10分で、ロボットは制御信号を合成し、弾塑性の物体を様々な形状に変形させるダイナミックスモデルを学習できることを示す。
論文 参考訳(メタデータ) (2022-05-05T20:28:15Z) - Future Frame Prediction for Robot-assisted Surgery [57.18185972461453]
本稿では,ロボット手術用ビデオシーケンスにおけるフレーム予測のためのtpg-vaeモデルを提案する。
コンテンツ配信に加えて、私たちのモデルは、手術ツールの小さな動きを処理するために斬新な運動分布を学習します。
論文 参考訳(メタデータ) (2021-03-18T15:12:06Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。