論文の概要: BEHAVIOR: Benchmark for Everyday Household Activities in Virtual,
Interactive, and Ecological Environments
- arxiv url: http://arxiv.org/abs/2108.03332v1
- Date: Fri, 6 Aug 2021 23:36:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 04:25:47.760312
- Title: BEHAVIOR: Benchmark for Everyday Household Activities in Virtual,
Interactive, and Ecological Environments
- Title(参考訳): BEHAVIOR:バーチャル・インタラクティブ・エコロジー環境における日々の家庭活動のベンチマーク
- Authors: Sanjana Srivastava, Chengshu Li, Michael Lingelbach, Roberto
Mart\'in-Mart\'in, Fei Xia, Kent Vainio, Zheng Lian, Cem Gokmen, Shyamal
Buch, C. Karen Liu, Silvio Savarese, Hyowon Gweon, Jiajun Wu, Li Fei-Fei
- Abstract要約: 本稿では,シミュレーションにおける100のアクティビティを持つAIのベンチマークであるBEHAVIORを紹介する。
これらの活動は現実的で多様性があり、複雑であるように設計されています。
われわれは、バーチャルリアリティー(VR)における500件の人間デモを含む。
- 参考スコア(独自算出の注目度): 70.18430114842094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce BEHAVIOR, a benchmark for embodied AI with 100 activities in
simulation, spanning a range of everyday household chores such as cleaning,
maintenance, and food preparation. These activities are designed to be
realistic, diverse, and complex, aiming to reproduce the challenges that agents
must face in the real world. Building such a benchmark poses three fundamental
difficulties for each activity: definition (it can differ by time, place, or
person), instantiation in a simulator, and evaluation. BEHAVIOR addresses these
with three innovations. First, we propose an object-centric, predicate
logic-based description language for expressing an activity's initial and goal
conditions, enabling generation of diverse instances for any activity. Second,
we identify the simulator-agnostic features required by an underlying
environment to support BEHAVIOR, and demonstrate its realization in one such
simulator. Third, we introduce a set of metrics to measure task progress and
efficiency, absolute and relative to human demonstrators. We include 500 human
demonstrations in virtual reality (VR) to serve as the human ground truth. Our
experiments demonstrate that even state of the art embodied AI solutions
struggle with the level of realism, diversity, and complexity imposed by the
activities in our benchmark. We make BEHAVIOR publicly available at
behavior.stanford.edu to facilitate and calibrate the development of new
embodied AI solutions.
- Abstract(参考訳): 本研究は,身体化されたaiのシミュレーションを対象とし,クリーニングやメンテナンス,食品準備など,日常生活の雑用を対象とする行動分析手法を提案する。
これらの活動は現実的で多様で複雑であり、エージェントが現実世界で直面する課題を再現することを目的としている。
このようなベンチマークの構築は、定義(時間、場所、人によって異なる)、シミュレータでのインスタンス化、評価の3つの基本的な問題を引き起こす。
BEHAVIORはこれらに3つのイノベーションで対処する。
まず,アクティビティの初期および目標条件を表現し,任意のアクティビティに対して多様なインスタンスを生成するための,オブジェクト中心の述語論理に基づく記述言語を提案する。
第2に、BEHAVIORをサポートする環境において必要となるシミュレータ非依存の特徴を特定し、その実現を1つのシミュレータで示す。
第3に、タスクの進捗と効率、絶対的かつ人間デモに対する相対的な測定値のセットを導入する。
われわれは、バーチャルリアリティー(VR)における500件の人間デモを含む。
我々の実験は、最先端のAIソリューションでさえ、我々のベンチマークのアクティビティによって課される現実主義、多様性、複雑さのレベルに苦しむことを示した。
我々はBEHAVIORを Behavior.stanford.edu で公開し、新しい組込みAIソリューションの開発を容易にし、校正する。
関連論文リスト
- EmbodiedCity: A Benchmark Platform for Embodied Agent in Real-world City Environment [38.14321677323052]
身体的人工知能は、エージェントの身体が人間のような行動を引き起こす役割を強調している。
本稿では,実環境におけるインテリジェンス評価のためのベンチマークプラットフォームを構築する。
論文 参考訳(メタデータ) (2024-10-12T17:49:26Z) - On the Evaluation of Generative Robotic Simulations [35.8253733339539]
生成シミュレーションに適した総合評価フレームワークを提案する。
単一タスクの品質では、生成されたタスクのリアリズムと生成されたトラジェクトリの完全性を評価する。
タスクレベルの一般化のために、複数の生成されたタスクで訓練されたポリシーの目に見えないタスクに対してゼロショットの一般化能力を評価する。
論文 参考訳(メタデータ) (2024-10-10T17:49:25Z) - BEHAVIOR-1K: A Human-Centered, Embodied AI Benchmark with 1,000 Everyday Activities and Realistic Simulation [63.42591251500825]
本稿では,人間中心ロボットの総合シミュレーションベンチマークであるBEHAVIOR-1Kを提案する。
ひとつは、90以上のオブジェクトにリッチな物理的およびセマンティックな特性を付加した50のシーンで、1,000の日常的な活動を定義することである。
第二にOMNIGIBSONは、現実的な物理シミュレーションと剛体、変形可能な体、液体のレンダリングを通じてこれらの活動を支援する新しいシミュレーション環境である。
論文 参考訳(メタデータ) (2024-03-14T09:48:36Z) - BEHAVIOR in Habitat 2.0: Simulator-Independent Logical Task Description
for Benchmarking Embodied AI Agents [31.499374840833124]
高速なシミュレーション速度の恩恵を受けるため、Habitat 2.0にBEHAVIORアクティビティのサブセットを組み込む。
ベンチマークがAIの分野で果たした触媒効果に触発されて、コミュニティはエンボディされたAIのための新しいベンチマークを探している。
論文 参考訳(メタデータ) (2022-06-13T21:37:31Z) - Towards Autonomous Grading In The Real World [4.651327752886103]
我々は、不均一な領域を平坦化するためにドーザを必要とする自律的なグレーディングの問題に取り組むことを目的としている。
本研究では,現実的な物理シミュレーションと実ドーザーのダイナミックスと感覚情報を模倣した拡張された実プロトタイプ環境の両方を設計する。
論文 参考訳(メタデータ) (2022-06-13T12:21:20Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - Evaluating Continual Learning Algorithms by Generating 3D Virtual
Environments [66.83839051693695]
連続学習とは、人間や動物が特定の環境で徐々に学習する能力である。
本稿では3次元仮想環境の最近の進歩を活用して,フォトリアリスティックな外観を持つ潜在的に長寿命な動的シーンの自動生成にアプローチすることを提案する。
本論文の新たな要素は、シーンがパラメトリックな方法で記述され、エージェントが知覚する入力ストリームの視覚的複雑さを完全に制御できることである。
論文 参考訳(メタデータ) (2021-09-16T10:37:21Z) - iGibson, a Simulation Environment for Interactive Tasks in Large
Realistic Scenes [54.04456391489063]
iGibsonは、大規模な現実的なシーンにおける対話的なタスクのためのロボットソリューションを開発するための、新しいシミュレーション環境である。
私たちの環境には、厳密で明瞭な物体が密集した15のインタラクティブなホームサイズシーンが含まれています。
iGibsonの機能はナビゲーションエージェントの一般化を可能にし、人間-iGibsonインターフェースと統合されたモーションプランナーは、単純な人間の実演行動の効率的な模倣学習を促進する。
論文 参考訳(メタデータ) (2020-12-05T02:14:17Z) - RoboTHOR: An Open Simulation-to-Real Embodied AI Platform [56.50243383294621]
インタラクティブで具体化された視覚AIの研究を民主化するためにRoboTHORを導入する。
シミュレーションで訓練されたモデルの性能は,シミュレーションと慎重に構築された物理アナログの両方で試験される場合,大きな差があることが示される。
論文 参考訳(メタデータ) (2020-04-14T20:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。