論文の概要: IGibson 2.0: Object-Centric Simulation for Robot Learning of Everyday
Household Tasks
- arxiv url: http://arxiv.org/abs/2108.03272v2
- Date: Tue, 10 Aug 2021 04:06:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 05:53:49.197468
- Title: IGibson 2.0: Object-Centric Simulation for Robot Learning of Everyday
Household Tasks
- Title(参考訳): igibson 2.0: 日常生活タスクのロボット学習のためのオブジェクト中心シミュレーション
- Authors: Chengshu Li, Fei Xia, Roberto Mart\'in-Mart\'in, Michael Lingelbach,
Sanjana Srivastava, Bokui Shen, Kent Vainio, Cem Gokmen, Gokul Dharan, Tanish
Jain, Andrey Kurenkov, C. Karen Liu, Hyowon Gweon, Jiajun Wu, Li Fei-Fei,
Silvio Savarese
- Abstract要約: より多様な家庭用タスクのシミュレーションを支援するシミュレーション環境iGibson 2.0を提案する。
まず、iGibson 2.0は、温度、湿性レベル、清潔度レベル、トグルとスライスされた状態を含むオブジェクト状態をサポートする。
第2に、iGibson 2.0は述語論理関数のセットを実装し、シミュレータ状態をCookedやSoakedのような論理状態にマッピングする。
第3に、iGibson 2.0にはバーチャルリアリティ(VR)インターフェースがあり、人間をシーンに浸してデモを収集する。
- 参考スコア(独自算出の注目度): 60.930678878024366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent research in embodied AI has been boosted by the use of simulation
environments to develop and train robot learning approaches. However, the use
of simulation has skewed the attention to tasks that only require what robotics
simulators can simulate: motion and physical contact. We present iGibson 2.0,
an open-source simulation environment that supports the simulation of a more
diverse set of household tasks through three key innovations. First, iGibson
2.0 supports object states, including temperature, wetness level, cleanliness
level, and toggled and sliced states, necessary to cover a wider range of
tasks. Second, iGibson 2.0 implements a set of predicate logic functions that
map the simulator states to logic states like Cooked or Soaked. Additionally,
given a logic state, iGibson 2.0 can sample valid physical states that satisfy
it. This functionality can generate potentially infinite instances of tasks
with minimal effort from the users. The sampling mechanism allows our scenes to
be more densely populated with small objects in semantically meaningful
locations. Third, iGibson 2.0 includes a virtual reality (VR) interface to
immerse humans in its scenes to collect demonstrations. As a result, we can
collect demonstrations from humans on these new types of tasks, and use them
for imitation learning. We evaluate the new capabilities of iGibson 2.0 to
enable robot learning of novel tasks, in the hope of demonstrating the
potential of this new simulator to support new research in embodied AI. iGibson
2.0 and its new dataset will be publicly available at
http://svl.stanford.edu/igibson/.
- Abstract(参考訳): 近年,ロボット学習手法の開発と訓練にシミュレーション環境を用いることで,AIの具体化に関する最近の研究が進められている。
しかし、シミュレーションの使用は、ロボットシミュレーターがシミュレートできるもの(モーションと物理的接触)だけを必要とするタスクに注意を向けている。
提案するiGibson 2.0は,3つの重要なイノベーションを通じて,より多様な家庭用タスクのシミュレーションを支援する,オープンソースのシミュレーション環境である。
まず、iGibson 2.0は、温度、湿性レベル、清潔度レベル、および幅広いタスクをカバーするために必要なトグルおよびスライス状態を含むオブジェクト状態をサポートする。
第2に、iGibson 2.0は述語論理関数のセットを実装し、シミュレータ状態をCookedやSoakedのような論理状態にマッピングする。
さらに、論理状態が与えられた場合、iGibson 2.0はそれを満たす有効な物理状態をサンプリングすることができる。
この機能は、ユーザから最小限の労力で、潜在的に無限のタスクインスタンスを生成することができる。
サンプリング機構により、シーンは意味的に意味のある場所にある小さなオブジェクトでより密集している。
第3に、iGibson 2.0にはバーチャルリアリティ(VR)インターフェースがあり、人間をシーンに浸してデモを収集する。
その結果,人間による新しいタスクのデモを収集し,模倣学習に利用することができる。
igibson 2.0の新たな能力を評価して,新しいタスクのロボット学習を可能にし,具体化aiにおける新たな研究を支援する新たなシミュレータの可能性を示すことを期待する。
iGibson 2.0とその新しいデータセットはhttp://svl.stanford.edu/igibson/で公開される。
関連論文リスト
- GRUtopia: Dream General Robots in a City at Scale [65.08318324604116]
本稿では,各種ロボットを対象とした対話型3D社会「GRUtopia」について紹介する。
GRScenesには100万のインタラクティブな微妙な注釈付きシーンが含まれており、都市規模の環境に自由に組み合わせることができる。
GRResidentsはLarge Language Model (LLM)によって駆動されるNon-Player Character (NPC)システムである。
論文 参考訳(メタデータ) (2024-07-15T17:40:46Z) - BEHAVIOR-1K: A Human-Centered, Embodied AI Benchmark with 1,000 Everyday Activities and Realistic Simulation [63.42591251500825]
本稿では,人間中心ロボットの総合シミュレーションベンチマークであるBEHAVIOR-1Kを提案する。
ひとつは、90以上のオブジェクトにリッチな物理的およびセマンティックな特性を付加した50のシーンで、1,000の日常的な活動を定義することである。
第二にOMNIGIBSONは、現実的な物理シミュレーションと剛体、変形可能な体、液体のレンダリングを通じてこれらの活動を支援する新しいシミュレーション環境である。
論文 参考訳(メタデータ) (2024-03-14T09:48:36Z) - GenH2R: Learning Generalizable Human-to-Robot Handover via Scalable Simulation, Demonstration, and Imitation [31.702907860448477]
GenH2Rは、一般化可能なビジョンベースのヒューマン・トゥ・ロボット(H2R)ハンドオーバスキルを学ぶためのフレームワークである。
我々は、H2Rハンドオーバを包括的解を用いて大規模に学習することで、そのような一般化可能性を得る。
大規模3次元モデルレポジトリ、デクスタラスグリップ生成方法、曲線ベースの3次元アニメーションを活用している。
論文 参考訳(メタデータ) (2024-01-01T18:20:43Z) - Gen2Sim: Scaling up Robot Learning in Simulation with Generative Models [17.757495961816783]
Gen2Simは、3Dアセット、タスク記述、タスク分解、報酬関数の自動生成によるシミュレーションにおけるロボットスキル学習のスケールアップ方法である。
私たちの研究は、シミュレーションにおける完全に自律的なロボット操作スキル獲得に向けて、何百ものシミュレーション資産、タスク、デモに貢献しています。
論文 参考訳(メタデータ) (2023-10-27T17:55:32Z) - HomeRobot: Open-Vocabulary Mobile Manipulation [107.05702777141178]
Open-Vocabulary Mobile Manipulation (OVMM) は、目に見えない環境で任意のオブジェクトを選択し、命令された場所に配置する問題である。
HomeRobotには2つのコンポーネントがある。シミュレーションコンポーネントは、新しい高品質のマルチルームホーム環境に、大規模で多様なキュレートされたオブジェクトセットを使用する。
論文 参考訳(メタデータ) (2023-06-20T14:30:32Z) - URoboSim -- An Episodic Simulation Framework for Prospective Reasoning
in Robotic Agents [18.869243389210492]
URoboSimは、実際にこのタスクを実行する前に、ロボットが精神シミュレーションとしてタスクを実行できるロボットシミュレータです。
URoboSimの精神シミュレーションによる能力を示し、機械学習のためのデータを生成し、実際のロボットの信念状態として利用します。
論文 参考訳(メタデータ) (2020-12-08T14:23:24Z) - iGibson, a Simulation Environment for Interactive Tasks in Large
Realistic Scenes [54.04456391489063]
iGibsonは、大規模な現実的なシーンにおける対話的なタスクのためのロボットソリューションを開発するための、新しいシミュレーション環境である。
私たちの環境には、厳密で明瞭な物体が密集した15のインタラクティブなホームサイズシーンが含まれています。
iGibsonの機能はナビゲーションエージェントの一般化を可能にし、人間-iGibsonインターフェースと統合されたモーションプランナーは、単純な人間の実演行動の効率的な模倣学習を促進する。
論文 参考訳(メタデータ) (2020-12-05T02:14:17Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。