論文の概要: AllenAct: A Framework for Embodied AI Research
- arxiv url: http://arxiv.org/abs/2008.12760v1
- Date: Fri, 28 Aug 2020 17:35:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 01:20:47.166876
- Title: AllenAct: A Framework for Embodied AI Research
- Title(参考訳): AllenAct: 身体的AI研究のためのフレームワーク
- Authors: Luca Weihs, Jordi Salvador, Klemen Kotar, Unnat Jain, Kuo-Hao Zeng,
Roozbeh Mottaghi, Aniruddha Kembhavi
- Abstract要約: エージェントは、エゴセントリックな観察から環境とのインタラクションを通じてタスクを完了させることを学ぶ。
AllenActはモジュール型で柔軟な学習フレームワークで、Embodied AI研究のユニークな要件に重点を置いて設計されている。
- 参考スコア(独自算出の注目度): 37.25733386769186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The domain of Embodied AI, in which agents learn to complete tasks through
interaction with their environment from egocentric observations, has
experienced substantial growth with the advent of deep reinforcement learning
and increased interest from the computer vision, NLP, and robotics communities.
This growth has been facilitated by the creation of a large number of simulated
environments (such as AI2-THOR, Habitat and CARLA), tasks (like point
navigation, instruction following, and embodied question answering), and
associated leaderboards. While this diversity has been beneficial and organic,
it has also fragmented the community: a huge amount of effort is required to do
something as simple as taking a model trained in one environment and testing it
in another. This discourages good science. We introduce AllenAct, a modular and
flexible learning framework designed with a focus on the unique requirements of
Embodied AI research. AllenAct provides first-class support for a growing
collection of embodied environments, tasks and algorithms, provides
reproductions of state-of-the-art models and includes extensive documentation,
tutorials, start-up code, and pre-trained models. We hope that our framework
makes Embodied AI more accessible and encourages new researchers to join this
exciting area. The framework can be accessed at: https://allenact.org/
- Abstract(参考訳): エージェントが自己中心的な観察から環境とのインタラクションを通じてタスクを完了させることを学ぶEmbodied AIの領域は、深い強化学習の出現と、コンピュータビジョン、NLP、ロボティクスコミュニティからの関心の高まりにより、かなりの成長を遂げている。
この成長は、多数のシミュレーション環境(AI2-THOR、Habitat、CARLAなど)、タスク(ポイントナビゲーション、インストラクションフォロー、埋め込み質問応答など)、および関連するリーダーボードの作成によって促進されている。
この多様性は有益で有機的なものですが、コミュニティも断片化しています。ある環境でトレーニングされたモデルを取り、別の環境でテストするのと同じくらい簡単なことを行うには、膨大な労力が必要です。
これは良い科学を妨げる。
我々は、Embodied AI研究のユニークな要件に焦点をあてて設計されたモジュラーで柔軟な学習フレームワークであるAllenActを紹介します。
AllenActは、エンボディされた環境、タスク、アルゴリズムのコレクションの増加に対するファーストクラスのサポートを提供し、最先端モデルの再現を提供し、広範なドキュメント、チュートリアル、起動コード、事前訓練されたモデルを含んでいる。
私たちのフレームワークが、Embodied AIをよりアクセスしやすくし、新しい研究者にこのエキサイティングな分野への参加を促すことを願っています。
フレームワークは、https://allenact.org/でアクセスできる。
関連論文リスト
- Aligning Cyber Space with Physical World: A Comprehensive Survey on Embodied AI [129.08019405056262]
人工知能(Embodied AI)は、人工知能(AGI)の実現に不可欠である
MLMとWMは、その顕著な知覚、相互作用、推論能力のために、大きな注目を集めている。
本調査では,Embodied AIの最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-07-09T14:14:47Z) - OMNI-EPIC: Open-endedness via Models of human Notions of Interestingness with Environments Programmed in Code [6.067502582087556]
オープンエンドおよびAI生成アルゴリズムは、ますます複雑なタスクを無期限に生成し、解決することを目的としている。
この壮大なビジョンを達成するためには、学習は潜在的なタスクの膨大な範囲内で行われなければならない。
OMNI-EPICという新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-24T13:57:32Z) - A call for embodied AI [1.7544885995294304]
我々は、人工知能の次の基本ステップとして、エンボディードAIを提案する。
Embodied AIの範囲を広げることで、認知アーキテクチャに基づく理論的枠組みを導入する。
このフレームワークはFristonのアクティブな推論原則と一致しており、EAI開発に対する包括的なアプローチを提供する。
論文 参考訳(メタデータ) (2024-02-06T09:11:20Z) - OpenAGI: When LLM Meets Domain Experts [51.86179657467822]
ヒューマン・インテリジェンス(HI)は、複雑なタスクを解くための基本的なスキルの組み合わせに長けている。
この機能は人工知能(AI)にとって不可欠であり、包括的なAIエージェントに組み込まれるべきである。
マルチステップで現実的なタスクを解決するために設計されたオープンソースのプラットフォームであるOpenAGIを紹介します。
論文 参考訳(メタデータ) (2023-04-10T03:55:35Z) - DIAMBRA Arena: a New Reinforcement Learning Platform for Research and
Experimentation [91.3755431537592]
本研究は、強化学習研究と実験のための新しいプラットフォームであるDIAMBRA Arenaを提示する。
高品質な環境のコレクションが,OpenAI Gym標準に完全に準拠したPython APIを公開している。
これらは、離散的なアクションと観測を生のピクセルと追加の数値で構成したエピソディックなタスクである。
論文 参考訳(メタデータ) (2022-10-19T14:39:10Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - rSoccer: A Framework for Studying Reinforcement Learning in Small and
Very Small Size Robot Soccer [0.0]
本稿では,強化学習実験に最適化されたIEEE Very Small Size SoccerとSmall Size Leagueのオープンソースシミュレータを紹介する。
また,単一エージェントおよびマルチエージェントロボットサッカースキルを評価するためのベンチマークタスクのセットを用いて,OpenAI Gym環境を作成するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T01:30:21Z) - Learning as Reinforcement: Applying Principles of Neuroscience for More
General Reinforcement Learning Agents [1.0742675209112622]
我々は、生物学的アルゴリズムの計算効率の良い抽象化を組み合わせることによって、実験神経科学の原理に基づいて構築されたアーキテクチャを実装する。
我々のアプローチは、スパイク刺激依存塑性の研究、短期記憶と長期記憶の遷移、および好奇心に対する様々な神経伝達物質の役割に着想を得たものである。
Neurons-in-a-Boxアーキテクチャは、完全に一般化可能な方法で学習することができ、一連の基準やアクションを明示的に最適化することなく、表現を構築し、適用するための効率的な方法を示す。
論文 参考訳(メタデータ) (2020-04-20T04:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。