論文の概要: Learning a generative model for robot control using visual feedback
- arxiv url: http://arxiv.org/abs/2003.04474v1
- Date: Tue, 10 Mar 2020 00:34:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 21:29:15.745668
- Title: Learning a generative model for robot control using visual feedback
- Title(参考訳): 視覚フィードバックを用いたロボット制御のための生成モデル学習
- Authors: Nishad Gothoskar, Miguel L\'azaro-Gredilla, Abhishek Agarwal, Yasemin
Bekiroglu, Dileep George
- Abstract要約: 本稿では,ロボット制御に視覚フィードバックを取り入れた新しい定式化を提案する。
モデルにおける推論により,特徴のターゲット位置に対応するロボット状態を推測することができる。
本研究では,不正確な制御を行うロボットに対して,握りとタイトな挿入を実行することで,本手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 7.171234436165255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel formulation for incorporating visual feedback in
controlling robots. We define a generative model from actions to image
observations of features on the end-effector. Inference in the model allows us
to infer the robot state corresponding to target locations of the features.
This, in turn, guides motion of the robot and allows for matching the target
locations of the features in significantly fewer steps than state-of-the-art
visual servoing methods. The training procedure for our model enables effective
learning of the kinematics, feature structure, and camera parameters,
simultaneously. This can be done with no prior information about the robot,
structure, and cameras that observe it. Learning is done sample-efficiently and
shows strong generalization to test data. Since our formulation is modular, we
can modify components of our setup, like cameras and objects, and relearn them
quickly online. Our method can handle noise in the observed state and noise in
the controllers that we interact with. We demonstrate the effectiveness of our
method by executing grasping and tight-fit insertions on robots with inaccurate
controllers.
- Abstract(参考訳): ロボット制御に視覚フィードバックを取り入れた新しい定式化を提案する。
我々は、アクションから、エンドエフェクタの機能のイメージ観察まで、生成モデルを定義する。
モデルにおける推論により,特徴のターゲット位置に対応するロボット状態を推測することができる。
これにより、ロボットの動きをガイドし、最先端のビジュアルサーボ法よりもはるかに少ないステップで特徴のターゲット位置をマッチングすることができる。
本モデルのトレーニング手順により,キネマティクス,特徴構造,カメラパラメータの学習を同時に行うことができる。
これは、それを観察するロボット、構造、およびカメラに関する事前情報なしで行うことができる。
学習はサンプル効率よく行われ、テストデータに対して強い一般化を示す。
フォーミュレーションはモジュール化されているので、カメラやオブジェクトなどのセットアップのコンポーネントを変更して、オンラインで素早く再学習することができます。
本手法は,我々が操作するコントローラの観測状態とノイズのノイズを処理できる。
本手法は,不正確な制御器を有するロボットに対して把持および密接な挿入を行うことにより,その効果を実証する。
関連論文リスト
- Differentiable Robot Rendering [45.23538293501457]
本稿では,ロボット本体の視覚的外観を,その制御パラメータに対して直接微分可能とするロボットレンダリングについて紹介する。
画像からロボットのポーズを復元したり、視覚言語モデルを用いてロボットを制御するなど、その能力と用途を実演する。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Latent Action Pretraining from Videos [156.88613023078778]
一般行動モデル(LAPA)のための潜在行動事前訓練について紹介する。
LAPA(英: LAPA)は、VLA(Vision-Language-Action)モデルに接地型ロボットアクションラベルを含まない教師なしの訓練方法である。
本稿では,ロボットアクションラベルを持たないインターネット規模のビデオから学習する手法を提案する。
論文 参考訳(メタデータ) (2024-10-15T16:28:09Z) - Enhancing Robot Learning through Learned Human-Attention Feature Maps [6.724036710994883]
ロボット学習にフォーカスポイントに関する補助情報を埋め込むことで、学習プロセスの効率性と堅牢性が向上すると考えられる。
本稿では,人間の注意を近似予測モデルでモデル化し,エミュレートするための新しいアプローチを提案する。
我々は,物体検出と模倣学習という2つの学習課題にアプローチを試行する。
論文 参考訳(メタデータ) (2023-08-29T14:23:44Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - RoboCraft: Learning to See, Simulate, and Shape Elasto-Plastic Objects
with Graph Networks [32.00371492516123]
弾塑性物体のモデリングと操作のためのモデルベース計画フレームワークを提案する。
我々のシステムであるRoboCraftは、グラフニューラルネットワーク(GNN)を用いて粒子ベースの力学モデルを学び、基礎となるシステムの構造を捉える。
実世界のロボットインタラクションデータの10分で、ロボットは制御信号を合成し、弾塑性の物体を様々な形状に変形させるダイナミックスモデルを学習できることを示す。
論文 参考訳(メタデータ) (2022-05-05T20:28:15Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z) - Caption Generation of Robot Behaviors based on Unsupervised Learning of
Action Segments [10.356412004005767]
ロボットの行動シーケンスとその自然言語キャプションをブリッジすることは、人間のアシストロボットの説明可能性を高める重要な課題である。
本稿では,人間支援ロボットの動作を記述した自然言語キャプションを生成するシステムを提案する。
論文 参考訳(メタデータ) (2020-03-23T03:44:56Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。