論文の概要: ABCDE: An Agent-Based Cognitive Development Environment
- arxiv url: http://arxiv.org/abs/2206.04909v1
- Date: Fri, 10 Jun 2022 07:23:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-13 15:11:53.600991
- Title: ABCDE: An Agent-Based Cognitive Development Environment
- Title(参考訳): ABCDE:エージェントによる認知開発環境
- Authors: Jieyi Ye, Jiafei Duan, Samson Yu, Bihan Wen, Cheston Tan
- Abstract要約: 子供の認知能力はAIベンチマークとして言及されることもある。
最も一般的な1000のコンセプト(日常使用の89%)は、どのように自然主義的な子どもの環境で学習できるか?
ABCDEは、子どもの認知発達のための自然主義的な環境を模倣する最初の環境である。
- 参考スコア(独自算出の注目度): 17.60784794941308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Children's cognitive abilities are sometimes cited as AI benchmarks. How can
the most common 1,000 concepts (89\% of everyday use) be learnt in a
naturalistic children's setting? Cognitive development in children is about
quality, and new concepts can be conveyed via simple examples. Our approach of
knowledge scaffolding uses simple objects and actions to convey concepts, like
how children are taught. We introduce ABCDE, an interactive 3D environment
modeled after a typical playroom for children. It comes with 300+ unique 3D
object assets (mostly toys), and a large action space for child and parent
agents to interact with objects and each other. ABCDE is the first environment
aimed at mimicking a naturalistic setting for cognitive development in
children; no other environment focuses on high-level concept learning through
learner-teacher interactions. The simulator can be found at
https://pypi.org/project/ABCDESim/1.0.0/
- Abstract(参考訳): 子供の認知能力はAIベンチマークとして言及されることもある。
最も一般的な1000のコンセプト(日常使用の89.%)は、どのように自然主義的な子どもの環境で学習できるか?
子どもの認知発達は品質に関するもので、新しい概念は単純な例を通して伝えられる。
知識の足場化のアプローチは、単純なオブジェクトとアクションを使って、子供たちの教え方のような概念を伝える。
ABCDEは,子ども向けの典型的なプレイルームをモデルとしたインタラクティブな3D環境である。
300以上のユニークな3dオブジェクトアセット(おもにおもちゃ)と、子供と親エージェントがオブジェクトと互いに対話するための大きなアクションスペースがある。
ABCDEは、子どもの認知発達のための自然主義的な環境を模倣することを目的とした最初の環境である。
シミュレータはhttps://pypi.org/project/ABCDESim/1.0.0/で見ることができる。
関連論文リスト
- Scaling Instructable Agents Across Many Simulated Worlds [70.97268311053328]
私たちのゴールは、シミュレーションされた3D環境で人間ができることを何でも達成できるエージェントを開発することです。
我々のアプローチは、最小限の仮定を示唆しながら、言語駆動の一般性に焦点を当てている。
我々のエージェントは、汎用的なヒューマンライクなインタフェースを使って、リアルタイムで環境と対話する。
論文 参考訳(メタデータ) (2024-03-13T17:50:32Z) - Learning 3D object-centric representation through prediction [12.008668555280668]
本研究では,1)離散画像からオブジェクトを抽出し,2)3次元位置を推定し,3)深度を知覚する新しいネットワークアーキテクチャを開発する。
中心となる考え方は、物体を脳が将来のシーンを効率的に予測するために使用する視覚入力の潜在原因として扱うことである。
論文 参考訳(メタデータ) (2024-03-06T14:19:11Z) - Open-Ended Reinforcement Learning with Neural Reward Functions [2.4366811507669115]
高次元ロボット環境では、ハーフチェエタのフロントフリップやヒューマノイドの片足ランニングなど、幅広い興味深いスキルを学びます。
ピクセルベースのMontezumaのRevenge環境では、我々の手法は最小限の変更でも機能し、アイテムとのインタラクションや多様な場所の訪問に関わる複雑なスキルを学ぶ。
論文 参考訳(メタデータ) (2022-02-16T15:55:22Z) - Evaluating Continual Learning Algorithms by Generating 3D Virtual
Environments [66.83839051693695]
連続学習とは、人間や動物が特定の環境で徐々に学習する能力である。
本稿では3次元仮想環境の最近の進歩を活用して,フォトリアリスティックな外観を持つ潜在的に長寿命な動的シーンの自動生成にアプローチすることを提案する。
本論文の新たな要素は、シーンがパラメトリックな方法で記述され、エージェントが知覚する入力ストリームの視覚的複雑さを完全に制御できることである。
論文 参考訳(メタデータ) (2021-09-16T10:37:21Z) - AGENT: A Benchmark for Core Psychological Reasoning [60.35621718321559]
直観心理学は、観察可能な行動を駆動する隠された精神変数を推論する能力です。
他のエージェントを推論する機械エージェントに対する近年の関心にもかかわらず、そのようなエージェントが人間の推論を駆動するコア心理学の原則を学ぶか保持するかは明らかではない。
本稿では,プロシージャが生成する3dアニメーション,エージェントを4つのシナリオで構成したベンチマークを提案する。
論文 参考訳(メタデータ) (2021-02-24T14:58:23Z) - Bongard-LOGO: A New Benchmark for Human-Level Concept Learning and
Reasoning [78.13740873213223]
ボナード問題(BP)は、インテリジェントシステムにおける視覚認知へのインスピレーションとして導入された。
我々は人間レベルの概念学習と推論のための新しいベンチマークBongard-LOGOを提案する。
論文 参考訳(メタデータ) (2020-10-02T03:19:46Z) - Learning Affordance Landscapes for Interaction Exploration in 3D
Environments [101.90004767771897]
エージェントは環境の仕組みを習得できなければならない。
相互作用探索のための強化学習手法を提案する。
AI2-iTHORで私たちのアイデアを実証します。
論文 参考訳(メタデータ) (2020-08-21T00:29:36Z) - Learning About Objects by Learning to Interact with Them [29.51363040054068]
人間はしばしば、外部の監督をほとんど、あるいは全く行わずに自分の世界について学ぶ。
物体を発見し,その物理特性を学習する計算フレームワークを提案する。
我々のエージェントは、近距離フォトリアリスティックで物理対応のAI2-THOR環境の中に置かれると、その世界と対話し、物体について学ぶ。
論文 参考訳(メタデータ) (2020-06-16T16:47:50Z) - Visual Prediction of Priors for Articulated Object Interaction [37.759459329701194]
人間は先行体験を迅速かつ効率的に構築することができる。
大人は台所などの新しい空間に入る際にもこの行動を示す。
我々は、視覚を通して、類似したドメイン間の相互作用間で知識を伝達する手段を提供する、コンテキスト優先予測法を開発した。
論文 参考訳(メタデータ) (2020-06-06T21:17:03Z) - VisualEchoes: Spatial Image Representation Learning through Echolocation [97.23789910400387]
いくつかの動物種(コウモリ、イルカ、クジラなど)や視覚障害者さえもエコーロケーションを行う能力を持っている。
エコーロケーションを用いて有用な視覚特徴を学習する対話型表現学習フレームワークを提案する。
我々の研究は、物理的世界との相互作用によって監督される、エンボディエージェントのための表現学習の新しい道を開く。
論文 参考訳(メタデータ) (2020-05-04T16:16:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。