論文の概要: URoboSim -- An Episodic Simulation Framework for Prospective Reasoning
in Robotic Agents
- arxiv url: http://arxiv.org/abs/2012.04442v1
- Date: Tue, 8 Dec 2020 14:23:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:27:17.457833
- Title: URoboSim -- An Episodic Simulation Framework for Prospective Reasoning
in Robotic Agents
- Title(参考訳): URoboSim - ロボットエージェントの予測推論のためのエピソード・シミュレーション・フレームワーク
- Authors: Michael Neumann, Sebastian Koralewski and Michael Beetz
- Abstract要約: URoboSimは、実際にこのタスクを実行する前に、ロボットが精神シミュレーションとしてタスクを実行できるロボットシミュレータです。
URoboSimの精神シミュレーションによる能力を示し、機械学習のためのデータを生成し、実際のロボットの信念状態として利用します。
- 参考スコア(独自算出の注目度): 18.869243389210492
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anticipating what might happen as a result of an action is an essential
ability humans have in order to perform tasks effectively. On the other hand,
robots capabilities in this regard are quite lacking. While machine learning is
used to increase the ability of prospection it is still limiting for novel
situations. A possibility to improve the prospection ability of robots is
through simulation of imagined motions and the physical results of these
actions. Therefore, we present URoboSim, a robot simulator that allows robots
to perform tasks as mental simulation before performing this task in reality.
We show the capabilities of URoboSim in form of mental simulations, generating
data for machine learning and the usage as belief state for a real robot.
- Abstract(参考訳): アクションの結果何が起こるかを予測することは、人間が効果的にタスクを実行するために必要な能力である。
一方、ロボットの能力は不足している。
機械学習は予測能力を高めるのに使われているが、新しい状況にはまだ限界がある。
ロボットの予測能力を改善する可能性として、想像された動きのシミュレーションとこれらの動作の物理的結果があげられる。
そこで本研究では,実際の作業を行う前に,ロボットがメンタルシミュレーションとしてタスクを実行できるロボットシミュレータURoboSimを提案する。
ウルボシムの能力をメンタルシミュレーションの形で示し,機械学習のためのデータ生成と,実ロボットの信念状態としての利用について述べる。
関連論文リスト
- Physical Simulation for Multi-agent Multi-machine Tending [11.017120167486448]
強化学習(RL)は,ロボットが環境とのインタラクションを通じて学習できる,有望なソリューションを提供する。
我々は、シンプルなロボットシステムを活用して、製造環境で大きな高価なロボットをデプロイすることなく、RLと“リアル”なデータで作業しました。
論文 参考訳(メタデータ) (2024-10-11T17:57:44Z) - DrEureka: Language Model Guided Sim-To-Real Transfer [64.14314476811806]
シミュレーションで学んだ政策を現実世界に伝達することは、ロボットのスキルを大規模に獲得する上で有望な戦略である。
本稿では,Large Language Models (LLMs) を用いてシム・トゥ・リアル設計の自動化と高速化を行う。
本手法では,ヨガボールの上を歩行する四足歩行や四足歩行など,新しいロボットタスクを解くことができる。
論文 参考訳(メタデータ) (2024-06-04T04:53:05Z) - DiffGen: Robot Demonstration Generation via Differentiable Physics Simulation, Differentiable Rendering, and Vision-Language Model [72.66465487508556]
DiffGenは、微分可能な物理シミュレーション、微分可能なレンダリング、ビジョン言語モデルを統合する新しいフレームワークである。
言語命令の埋め込みとシミュレートされた観察の埋め込みとの距離を最小化することにより、現実的なロボットデモを生成することができる。
実験によると、DiffGenを使えば、人間の努力やトレーニング時間を最小限に抑えて、ロボットデータを効率よく、効果的に生成できる。
論文 参考訳(メタデータ) (2024-05-12T15:38:17Z) - Innate Motivation for Robot Swarms by Minimizing Surprise: From Simple Simulations to Real-World Experiments [6.21540494241516]
大規模モバイルマルチロボットシステムは、堅牢性とスケーラビリティの可能性が高いため、モノリシックロボットよりも有益である。
マルチロボットシステムのためのコントローラの開発は、対話の多さが予測し難く、モデル化が難しいため、難しい。
本質的にモチベーションは報酬の特定の定式化を避け、好奇心などの異なるドライバで作業しようとする。
Swarmのロボットケースのユニークな利点は、Swarmのメンバーがロボットの環境に飛び込み、自己参照ループでより活発な行動を引き起こすことができることである。
論文 参考訳(メタデータ) (2024-05-04T06:25:58Z) - Teaching Robots to Build Simulations of Themselves [7.886658271375681]
本稿では,簡単な生ビデオデータのみを用いて,ロボットの形状,運動学,運動制御をモデル化し,予測するための自己教師付き学習フレームワークを提案する。
ロボットは自分の動きを観察することで、自分自身をシミュレートし、様々なタスクのために空間的な動きを予測する能力を学ぶ。
論文 参考訳(メタデータ) (2023-11-20T20:03:34Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Knowledge-Driven Robot Program Synthesis from Human VR Demonstrations [16.321053835017942]
バーチャルリアリティ(VR)におけるヒューマンタスクの実演から実行可能なロボット制御プログラムを自動生成するシステムを提案する。
我々は、人間のVRデモを意味論的に解釈するために、常識知識とゲームエンジンに基づく物理を利用する。
ロボットショッピングアシスタントにおける力覚的フェッチ・アンド・プレイスという文脈でのアプローチを実証する。
論文 参考訳(メタデータ) (2023-06-05T09:37:53Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。