論文の概要: VRKitchen2.0-IndoorKit: A Tutorial for Augmented Indoor Scene Building
in Omniverse
- arxiv url: http://arxiv.org/abs/2206.11887v1
- Date: Thu, 23 Jun 2022 17:53:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-24 14:28:32.177734
- Title: VRKitchen2.0-IndoorKit: A Tutorial for Augmented Indoor Scene Building
in Omniverse
- Title(参考訳): VRKitchen2.0-IndoorKit:Omniverseの屋内シーンビルのためのチュートリアル
- Authors: Yizhou Zhao, Steven Gong, Xiaofeng Gao, Wensi Ai, Song-Chun Zhu
- Abstract要約: INDOORKITはNVIDIA OMNIVERSEの組み込みツールキットである。
屋内シーンビルディング、シーンランダム化、アニメーションコントロールのための柔軟なパイプラインを提供する。
- 参考スコア(独自算出の注目度): 77.52012928882928
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the recent progress of simulations by 3D modeling software and game
engines, many researchers have focused on Embodied AI tasks in the virtual
environment. However, the research community lacks a platform that can easily
serve both indoor scene synthesis and model benchmarking with various
algorithms. Meanwhile, computer graphics-related tasks need a toolkit for
implementing advanced synthesizing techniques. To facilitate the study of
indoor scene building methods and their potential robotics applications, we
introduce INDOORKIT: a built-in toolkit for NVIDIA OMNIVERSE that provides
flexible pipelines for indoor scene building, scene randomizing, and animation
controls. Besides, combining Python coding in the animation software INDOORKIT
assists researchers in creating real-time training and controlling avatars and
robotics. The source code for this toolkit is available at
https://github.com/realvcla/VRKitchen2.0-Tutorial, and the tutorial along with
the toolkit is available at https://vrkitchen20-tutorial.readthedocs.io/en/
- Abstract(参考訳): 最近の3Dモデリングソフトウェアとゲームエンジンによるシミュレーションの進歩により、多くの研究者が仮想環境におけるエボダイドAIタスクに焦点を当てている。
しかし、研究コミュニティには屋内シーン合成と様々なアルゴリズムによるモデルベンチマークの両方を容易に行えるプラットフォームがない。
一方、コンピュータグラフィックス関連のタスクは高度な合成技術を実装するためのツールキットを必要とする。
屋内シーン構築手法とそのロボット応用の可能性を研究するため、屋内シーン構築、シーンランダム化、アニメーション制御に柔軟なパイプラインを提供するnvidia omniverseの組み込みツールキットであるindokitを紹介する。
さらに、アニメーションソフトウェアINDOORKITにPythonのコーディングを組み合わせることで、研究者がリアルタイムトレーニングを作成し、アバターやロボティクスを制御するのを助ける。
このツールキットのソースコードはhttps://github.com/realvcla/VRKitchen2.0-Tutorialで入手できる。
関連論文リスト
- SceneCraft: An LLM Agent for Synthesizing 3D Scene as Blender Code [76.22337677728109]
SceneCraftはLarge Language Model (LLM)エージェントで、テキスト記述をBlender-executable Pythonスクリプトに変換する。
SceneCraftは、100個の3Dアセットで複雑なシーンをレンダリングする。
高度な抽象化、戦略的計画、ライブラリ学習を組み合わせることで、これらの課題に取り組みます。
論文 参考訳(メタデータ) (2024-03-02T16:16:26Z) - Learning 3D Particle-based Simulators from RGB-D Videos [15.683877597215494]
本研究では,シミュレータを直接観測から学習する手法を提案する。
視覚粒子ダイナミクス(VPD)は、3Dシーンの潜在粒子ベースの表現を共同で学習する。
既存の2Dビデオ予測モデルとは異なり、VPDの3D構造はシーン編集と長期予測を可能にする。
論文 参考訳(メタデータ) (2023-12-08T20:45:34Z) - Learning Interactive Real-World Simulators [107.12907352474005]
生成モデルを用いて実世界の相互作用の普遍的なシミュレータを学習する可能性について検討する。
シミュレーターを用いて、高レベルな視覚言語ポリシーと低レベルな強化学習ポリシーの両方を訓練する。
ビデオキャプションモデルは、シミュレートされた経験を持つトレーニングの恩恵を受けることができる。
論文 参考訳(メタデータ) (2023-10-09T19:42:22Z) - Unsupervised Volumetric Animation [54.52012366520807]
非剛性変形物体の教師なし3次元アニメーションのための新しい手法を提案する。
本手法は,RGBビデオのみからオブジェクトの3次元構造とダイナミックスを学習する。
我々は,本モデルを用いて,単一ボリュームまたは少数の画像からアニマタブルな3Dオブジェクトを得ることができることを示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:54Z) - Open-VICO: An Open-Source Gazebo Toolkit for Multi-Camera-based Skeleton
Tracking in Human-Robot Collaboration [0.0]
この研究は、ガゼボで仮想人間モデルを統合するためのオープンソースツールキットであるOpen-VICOを提示する。
特に、Open-VICOは、現実的な人間のキネマティックモデル、マルチカメラビジョン設定、そして人間の追跡技術と同じシミュレーション環境で組み合わせることができる。
論文 参考訳(メタデータ) (2022-03-28T13:21:32Z) - Evaluating Continual Learning Algorithms by Generating 3D Virtual
Environments [66.83839051693695]
連続学習とは、人間や動物が特定の環境で徐々に学習する能力である。
本稿では3次元仮想環境の最近の進歩を活用して,フォトリアリスティックな外観を持つ潜在的に長寿命な動的シーンの自動生成にアプローチすることを提案する。
本論文の新たな要素は、シーンがパラメトリックな方法で記述され、エージェントが知覚する入力ストリームの視覚的複雑さを完全に制御できることである。
論文 参考訳(メタデータ) (2021-09-16T10:37:21Z) - IGibson 2.0: Object-Centric Simulation for Robot Learning of Everyday
Household Tasks [60.930678878024366]
より多様な家庭用タスクのシミュレーションを支援するシミュレーション環境iGibson 2.0を提案する。
まず、iGibson 2.0は、温度、湿性レベル、清潔度レベル、トグルとスライスされた状態を含むオブジェクト状態をサポートする。
第2に、iGibson 2.0は述語論理関数のセットを実装し、シミュレータ状態をCookedやSoakedのような論理状態にマッピングする。
第3に、iGibson 2.0にはバーチャルリアリティ(VR)インターフェースがあり、人間をシーンに浸してデモを収集する。
論文 参考訳(メタデータ) (2021-08-06T18:41:39Z) - Out of the Box: Embodied Navigation in the Real World [45.97756658635314]
シミュレーションで得られた知識を現実世界に伝達する方法を示す。
モデルは1台のIntel RealSenseカメラを搭載したLoCoBotにデプロイします。
本実験では,得られたモデルを実世界に展開することで,満足のいく結果が得られることを示した。
論文 参考訳(メタデータ) (2021-05-12T18:00:14Z) - myGym: Modular Toolkit for Visuomotor Robotic Tasks [0.0]
myGymは、3Dシミュレータで訓練された強化学習(RL)、本質的な動機付け、模倣学習タスク用に開発された新しい仮想ロボットツールキットです。
シミュレータのモジュラ構造により、ユーザはさまざまなロボット、環境、タスクを使って、多数のシナリオでアルゴリズムをトレーニングし、検証することができる。
このツールキットは、Visuomotorタスク用に事前トレーニングされたビジュアルモジュールを提供し、迅速なプロトタイピングを可能にし、さらに視覚的なサブモジュールをカスタマイズしたり、自身のオブジェクトで再トレーニングすることができる。
論文 参考訳(メタデータ) (2020-12-21T19:15:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。