論文の概要: SAMPLE-HD: Simultaneous Action and Motion Planning Learning Environment
- arxiv url: http://arxiv.org/abs/2206.10312v1
- Date: Wed, 1 Jun 2022 15:42:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-26 08:23:00.078333
- Title: SAMPLE-HD: Simultaneous Action and Motion Planning Learning Environment
- Title(参考訳): サンプルhd:同時動作と動作計画学習環境
- Authors: Michal Nazarczuk and Tony Ng and Krystian Mikolajczyk
- Abstract要約: 操作設定においてインタラクティブな推論を学習する新しい環境において、シミュレーションの視覚的側面と行動的側面の両方を包含するソリューションを提供しています。
SAMPLE-HD環境は、小さな家庭オブジェクトからなる様々なシーンを生成し、手続き的に操作のための言語命令を生成し、トレーニングデータとして機能する地上真実パスを生成する。
- 参考スコア(独自算出の注目度): 26.942629424454456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans exhibit incredibly high levels of multi-modal understanding -
combining visual cues with read, or heard knowledge comes easy to us and allows
for very accurate interaction with the surrounding environment. Various
simulation environments focus on providing data for tasks related to scene
understanding, question answering, space exploration, visual navigation. In
this work, we are providing a solution to encompass both, visual and
behavioural aspects of simulation in a new environment for learning interactive
reasoning in manipulation setup. SAMPLE-HD environment allows to generate
various scenes composed of small household objects, to procedurally generate
language instructions for manipulation, and to generate ground truth paths
serving as training data.
- Abstract(参考訳): 人間は、非常に高いレベルのマルチモーダル理解能力を示しており、可読性や聞き取りの知識は、私たちにとって簡単であり、周囲の環境と非常に正確な相互作用を可能にする。
様々なシミュレーション環境は、シーン理解、質問応答、空間探索、視覚ナビゲーションに関連するタスクのデータの提供に焦点を当てている。
本研究では,シミュレーションの視覚的側面と行動的側面の両方を,操作設定における対話的推論を学習するための新しい環境に包含するソリューションを提供する。
SAMPLE-HD環境は、小さな家庭オブジェクトからなる様々なシーンを生成し、手続き的に操作のための言語命令を生成し、トレーニングデータとして機能する地上真実パスを生成する。
関連論文リスト
- ReALFRED: An Embodied Instruction Following Benchmark in Photo-Realistic Environments [13.988804095409133]
本研究では,実世界のシーン,オブジェクト,部屋のレイアウトを取り入れたReALFREDベンチマークを提案する。
具体的には、視覚領域のギャップを小さくした環境空間を更新したALFREDベンチマークを拡張する。
ReALFREDでは、以前作られたALFREDベンチマークのメソッドを分析し、すべてのメトリクスで一貫して低いパフォーマンスが得られることを観察する。
論文 参考訳(メタデータ) (2024-07-26T07:00:27Z) - HYPERmotion: Learning Hybrid Behavior Planning for Autonomous Loco-manipulation [7.01404330241523]
HYPERmotionは、異なるシナリオのタスクに基づいて行動を学び、選択し、計画するフレームワークである。
強化学習と全身最適化を組み合わせることで,38関節の運動を生成する。
シミュレーションと実世界の実験では、学習した動きが新しいタスクに効率的に適応できることが示されている。
論文 参考訳(メタデータ) (2024-06-20T18:21:24Z) - Scaling Instructable Agents Across Many Simulated Worlds [70.97268311053328]
私たちのゴールは、シミュレーションされた3D環境で人間ができることを何でも達成できるエージェントを開発することです。
我々のアプローチは、最小限の仮定を示唆しながら、言語駆動の一般性に焦点を当てている。
我々のエージェントは、汎用的なヒューマンライクなインタフェースを使って、リアルタイムで環境と対話する。
論文 参考訳(メタデータ) (2024-03-13T17:50:32Z) - Synthesizing Physical Character-Scene Interactions [64.26035523518846]
仮想キャラクタとその周辺環境間のこのような相互作用を合成する必要がある。
本稿では,逆模倣学習と強化学習を用いて物理シミュレーション文字を学習するシステムを提案する。
我々のアプローチは、物理学に基づくキャラクターモーション生成を広い適用性に一歩近づいた。
論文 参考訳(メタデータ) (2023-02-02T05:21:32Z) - CLEAR: Improving Vision-Language Navigation with Cross-Lingual,
Environment-Agnostic Representations [98.30038910061894]
VLN(Vision-and-Language Navigation)タスクでは、エージェントが言語命令に基づいて環境をナビゲートする必要がある。
CLEAR: 言語横断表現と環境非依存表現を提案する。
我々の言語と視覚表現は、Room-to-Room and Cooperative Vision-and-Dialogue Navigationタスクにうまく転送できる。
論文 参考訳(メタデータ) (2022-07-05T17:38:59Z) - Evaluating Continual Learning Algorithms by Generating 3D Virtual
Environments [66.83839051693695]
連続学習とは、人間や動物が特定の環境で徐々に学習する能力である。
本稿では3次元仮想環境の最近の進歩を活用して,フォトリアリスティックな外観を持つ潜在的に長寿命な動的シーンの自動生成にアプローチすることを提案する。
本論文の新たな要素は、シーンがパラメトリックな方法で記述され、エージェントが知覚する入力ストリームの視覚的複雑さを完全に制御できることである。
論文 参考訳(メタデータ) (2021-09-16T10:37:21Z) - iGibson, a Simulation Environment for Interactive Tasks in Large
Realistic Scenes [54.04456391489063]
iGibsonは、大規模な現実的なシーンにおける対話的なタスクのためのロボットソリューションを開発するための、新しいシミュレーション環境である。
私たちの環境には、厳密で明瞭な物体が密集した15のインタラクティブなホームサイズシーンが含まれています。
iGibsonの機能はナビゲーションエージェントの一般化を可能にし、人間-iGibsonインターフェースと統合されたモーションプランナーは、単純な人間の実演行動の効率的な模倣学習を促進する。
論文 参考訳(メタデータ) (2020-12-05T02:14:17Z) - VisualHints: A Visual-Lingual Environment for Multimodal Reinforcement
Learning [14.553086325168803]
テキストベースのインタラクションと視覚的ヒント(環境から得られる)を含むマルチモーダル強化学習(RL)のための新しい環境であるVisualHintsを提案する。
環境全体に散在する視覚的手がかりを付加したTextWorld調理環境の拡張について紹介する。
目標は、RLエージェントがテキストと視覚の両方を使って自然言語のアクションコマンドを予測して、食事の調理の最終タスクを解決することである。
論文 参考訳(メタデータ) (2020-10-26T18:51:02Z) - A Neural-Symbolic Framework for Mental Simulation [0.0]
本稿では,環境を観察し,視覚的意味論と直感的な物理を連続的に学習し,それらをインタラクティブなシミュレーションで再現するニューラルネットワーク・シンボリック・フレームワークを提案する。
このフレームワークは5つの部分で構成されており、逆グラフィックスのためのカプセルに基づくニューラルシンボリックハイブリッドネットワーク、観測を格納するためのエピソードメモリ、直感的な物理のための相互作用ネットワーク、クエリ言語である。
論文 参考訳(メタデータ) (2020-08-05T20:43:55Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。