論文の概要: RoboTHOR: An Open Simulation-to-Real Embodied AI Platform
- arxiv url: http://arxiv.org/abs/2004.06799v1
- Date: Tue, 14 Apr 2020 20:52:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 10:07:23.890374
- Title: RoboTHOR: An Open Simulation-to-Real Embodied AI Platform
- Title(参考訳): RoboThor: オープンなシミュレーションから現実のエボダイドAIプラットフォーム
- Authors: Matt Deitke, Winson Han, Alvaro Herrasti, Aniruddha Kembhavi, Eric
Kolve, Roozbeh Mottaghi, Jordi Salvador, Dustin Schwenk, Eli VanderBilt,
Matthew Wallingford, Luca Weihs, Mark Yatskar, Ali Farhadi
- Abstract要約: インタラクティブで具体化された視覚AIの研究を民主化するためにRoboTHORを導入する。
シミュレーションで訓練されたモデルの性能は,シミュレーションと慎重に構築された物理アナログの両方で試験される場合,大きな差があることが示される。
- 参考スコア(独自算出の注目度): 56.50243383294621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual recognition ecosystems (e.g. ImageNet, Pascal, COCO) have undeniably
played a prevailing role in the evolution of modern computer vision. We argue
that interactive and embodied visual AI has reached a stage of development
similar to visual recognition prior to the advent of these ecosystems.
Recently, various synthetic environments have been introduced to facilitate
research in embodied AI. Notwithstanding this progress, the crucial question of
how well models trained in simulation generalize to reality has remained
largely unanswered. The creation of a comparable ecosystem for
simulation-to-real embodied AI presents many challenges: (1) the inherently
interactive nature of the problem, (2) the need for tight alignments between
real and simulated worlds, (3) the difficulty of replicating physical
conditions for repeatable experiments, (4) and the associated cost. In this
paper, we introduce RoboTHOR to democratize research in interactive and
embodied visual AI. RoboTHOR offers a framework of simulated environments
paired with physical counterparts to systematically explore and overcome the
challenges of simulation-to-real transfer, and a platform where researchers
across the globe can remotely test their embodied models in the physical world.
As a first benchmark, our experiments show there exists a significant gap
between the performance of models trained in simulation when they are tested in
both simulations and their carefully constructed physical analogs. We hope that
RoboTHOR will spur the next stage of evolution in embodied computer vision.
RoboTHOR can be accessed at the following link:
https://ai2thor.allenai.org/robothor
- Abstract(参考訳): 視覚認識のエコシステム(例えばimagenet、pascal、coco)は、現代のコンピュータビジョンの進化において広く使われている役割を担ってきた。
我々は、インタラクティブで具現化された視覚AIが、これらのエコシステムの出現以前に視覚認識に似た発展段階に達したと論じる。
近年,組込みAIの研究を促進するために,様々な合成環境が導入されている。
この進歩にもかかわらず、シミュレーションで訓練されたモデルの現実への一般化に関する重要な疑問はほとんど解決されていない。
1) 問題の本質的にインタラクティブな性質,(2) 実世界と模擬世界の密接な整合性の必要性,(3) 再現可能な実験のために物理条件を再現することの難しさ,(4) 関連するコスト。
本稿では,インタラクティブで具体化された視覚AIの研究を民主化するRoboTHORを紹介する。
RoboTHORは、シミュレーションから現実への移行の課題を体系的に探求し克服するために、物理的な環境と組み合わせたシミュレーション環境のフレームワークを提供する。
第1のベンチマークとして,実験では,シミュレーションでトレーニングされたモデルのパフォーマンスと,注意深く構築された物理アナログとの間に,大きなギャップがあることが示されている。
われわれはRoboThorがコンピュータビジョンの進化の次の段階を加速することを期待している。
robothorは以下のリンクでアクセスできる。 https://ai2thor.allenai.org/robothor
関連論文リスト
- EAGERx: Graph-Based Framework for Sim2real Robot Learning [9.145895178276822]
Sim2realは、シミュレーションから現実世界への学習制御ポリシーの移行であり、ロボット工学への関心が高まりつつある分野である。
EAGERxは,実際のロボット学習とシミュレーションロボット学習の両方に統一されたソフトウェアパイプラインを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-05T08:01:19Z) - On the Emergence of Symmetrical Reality [51.21203247240322]
物理仮想アマルガメーションの様々な形態を包含した統一表現を提供する対称現実感フレームワークを導入する。
我々は、対称現実の潜在的な応用を示すAI駆動型アクティブアシストサービスの例を提案する。
論文 参考訳(メタデータ) (2024-01-26T16:09:39Z) - DiffuseBot: Breeding Soft Robots With Physics-Augmented Generative
Diffusion Models [102.13968267347553]
本稿では,様々なタスクにおいて優れたソフトロボット形態を生成する物理拡張拡散モデルであるDiffuseBotを提案する。
我々は、その能力とともに、シミュレーションされた、そして製造された様々なロボットを紹介します。
論文 参考訳(メタデータ) (2023-11-28T18:58:48Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - ProcTHOR: Large-Scale Embodied AI Using Procedural Generation [55.485985317538194]
ProcTHORは、Embodied AI環境の手続き的生成のためのフレームワークである。
ナビゲーション、アレンジメント、アーム操作のための6つの具体化されたAIベンチマークに対して、最先端の結果を実証する。
論文 参考訳(メタデータ) (2022-06-14T17:09:35Z) - Inferring Articulated Rigid Body Dynamics from RGBD Video [18.154013621342266]
我々は,逆レンダリングと微分可能なシミュレーションを組み合わせるパイプラインを導入し,実世界の調音機構のディジタルツインを作成する。
本手法はロボットが操作する関節機構のキネマティックツリーを正確に再構築する。
論文 参考訳(メタデータ) (2022-03-20T08:19:02Z) - An in-depth experimental study of sensor usage and visual reasoning of
robots navigating in real environments [20.105395754497202]
実物的エージェントの性能と推論能力について検討し、シミュレーションで訓練し、2つの異なる物理的環境に展開する。
我々は,PointGoalタスクに対して,多種多様なタスクを事前訓練し,対象環境の模擬バージョンを微調整したエージェントが,sim2real転送をモデル化せずに競争性能に達することを示す。
論文 参考訳(メタデータ) (2021-11-29T16:27:29Z) - Adaptive Synthetic Characters for Military Training [0.9802137009065037]
現在の軍事シミュレーションにおける合成文字の挙動は、一般的にルールベースおよびリアクティブ計算モデルによって生成されるため、限られている。
本稿では,信頼できる行動のコヒーレントなシーケンスを実行できる自律的な合成文字を作成することを目的とした枠組みを提案する。
論文 参考訳(メタデータ) (2021-01-06T18:45:48Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。