論文の概要: DeepMind Lab2D
- arxiv url: http://arxiv.org/abs/2011.07027v2
- Date: Sat, 12 Dec 2020 20:56:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 00:12:12.174386
- Title: DeepMind Lab2D
- Title(参考訳): DeepMind Lab2D
- Authors: Charles Beattie, Thomas K\"oppe, Edgar A. Du\'e\~nez-Guzm\'an, Joel Z.
Leibo
- Abstract要約: DeepMind Lab2Dは、人工知能研究のためのスケーラブルな環境シミュレータである。
DeepMind Lab2Dは、マルチエージェントの深層強化学習研究者を念頭に置いて開発された。
- 参考スコア(独自算出の注目度): 4.569755703928989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present DeepMind Lab2D, a scalable environment simulator for artificial
intelligence research that facilitates researcher-led experimentation with
environment design. DeepMind Lab2D was built with the specific needs of
multi-agent deep reinforcement learning researchers in mind, but it may also be
useful beyond that particular subfield.
- Abstract(参考訳): 本稿では,研究者主導の環境設計実験を促進する人工知能研究用スケーラブル環境シミュレータであるDeepMind Lab2Dを紹介する。
deepmind lab2dは、マルチエージェントのディープラーニング研究者を念頭に置いて開発されたが、そのサブフィールドを超えて役立つかもしれない。
関連論文リスト
- MLXP: A framework for conducting replicable Machine Learning eXperiments
in Python [71.22547130430371]
MLXPはPythonをベースとした,オープンソースの,シンプルで,軽量な実験管理ツールである。
実験プロセスを最小限のオーバーヘッドで合理化し、高いレベルの実践的オーバーヘッドを確保します。
論文 参考訳(メタデータ) (2024-02-21T14:22:20Z) - Latent Lab: Large Language Models for Knowledge Exploration [0.0]
我々は,MITメディアラボ研究プロジェクト間のつながりを発見するインタラクティブツールである"Latent Lab"を紹介する。
この研究は、コンテンツを整理、検索、合成する際の課題に対処することで、協調AIシステムに関する洞察を提供する。
論文 参考訳(メタデータ) (2023-11-21T23:23:16Z) - Digital Twinning Remote Laboratories for Online Practical Learning [0.09786690381850356]
COVID19パンデミックは、バーチャルリアリティ(VR)やタブレットベースのソリューションのような、リモート学習と仮想学習アプリケーションの必要性を示している。
仮想学習ツールの半自動作成を可能にする汎用モデルの開発が研究されている。
電気実験室チュートリアルのための仮想学習アプリケーションの作成を記述したケーススタディが紹介されている。
論文 参考訳(メタデータ) (2021-12-01T16:55:58Z) - Modular Procedural Generation for Voxel Maps [2.6811189633660613]
本稿では,Minecraft などのボクセル環境を対象とした PCG アルゴリズムの実装を容易にするオープンソースライブラリ mcg を提案する。
この図書館は人間と機械のチーム研究を念頭に設計されており、世代に「トップダウン」なアプローチを採っている。
このアプローチの利点は、仮想環境の迅速でスケーラブルで効率的な開発、セマンティックレベルで環境の統計を制御できる機能、およびプレイヤーのアクションにリアルタイムで応答して新しい環境を生成する機能です。
論文 参考訳(メタデータ) (2021-04-18T16:21:35Z) - On Deep Learning Techniques to Boost Monocular Depth Estimation for
Autonomous Navigation [1.9007546108571112]
画像の深さを推定することはコンピュータビジョンの分野における根本的な逆問題である。
本稿では,新しい特徴抽出モデルと組み合わせ,軽量で高速なCNNアーキテクチャを提案する。
また,SIDE問題を解くために,単純な幾何2.5D損失関数と組み合わせて効率的な表面正規化モジュールを導入する。
論文 参考訳(メタデータ) (2020-10-13T18:37:38Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - Empirica: a virtual lab for high-throughput macro-level experiments [4.077787659104315]
Empiricaはモジュール型の仮想ラボで、ユーザビリティ-機能トレードオフに対するソリューションを提供する。
Empiricaのアーキテクチャはパラメータ化可能な実験設計、再利用可能なプロトコル、迅速な開発を可能にするように設計されている。
論文 参考訳(メタデータ) (2020-06-19T21:28:07Z) - DeepPurpose: a Deep Learning Library for Drug-Target Interaction
Prediction [69.7424023336611]
DeepPurposeは、DTI予測のための包括的で使いやすいディープラーニングライブラリである。
15の複合およびタンパク質エンコーダと50以上のニューラルアーキテクチャを実装することで、カスタマイズされたDTI予測モデルのトレーニングをサポートする。
複数のベンチマークデータセット上でDeepPurposeの最先端性能を示す。
論文 参考訳(メタデータ) (2020-04-19T17:31:55Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z) - The Chef's Hat Simulation Environment for Reinforcement-Learning-Based
Agents [54.63186041942257]
本稿では,人間-ロボットインタラクションのシナリオで使用されるように設計されたChef's Hatカードゲームを実装する仮想シミュレーション環境を提案する。
本稿では,強化学習アルゴリズムにおける制御可能かつ再現可能なシナリオを提案する。
論文 参考訳(メタデータ) (2020-03-12T15:52:49Z) - Learning Depth With Very Sparse Supervision [57.911425589947314]
本稿では, 環境との相互作用を通じて, 知覚が世界の3次元特性と結合するという考えを考察する。
我々は、環境と対話するロボットが利用できるような、特殊なグローバルローカルネットワークアーキテクチャを訓練する。
いくつかのデータセットの実験では、画像ピクセルの1つでも基底真理が利用できる場合、提案されたネットワークは、最先端のアプローチよりも22.5%の精度でモノクロの深度推定を学習できることを示している。
論文 参考訳(メタデータ) (2020-03-02T10:44:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。