論文の概要: Scaling Imitation Learning in Minecraft
- arxiv url: http://arxiv.org/abs/2007.02701v1
- Date: Mon, 6 Jul 2020 12:47:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 01:07:56.051088
- Title: Scaling Imitation Learning in Minecraft
- Title(参考訳): minecraftにおける模倣学習のスケーリング
- Authors: Artemij Amiranashvili, Nicolai Dorka, Wolfram Burgard, Vladlen Koltun,
Thomas Brox
- Abstract要約: 本研究では,マインクラフト環境でのハード・サーベイ問題に対する最先端の性能を達成するために模倣学習を適用した。
私たちのアプローチの初期バージョンは、NeurIPS 2019でMineRLコンペティションで2位にランクインしました。
- 参考スコア(独自算出の注目度): 114.6964571273486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imitation learning is a powerful family of techniques for learning
sensorimotor coordination in immersive environments. We apply imitation
learning to attain state-of-the-art performance on hard exploration problems in
the Minecraft environment. We report experiments that highlight the influence
of network architecture, loss function, and data augmentation. An early version
of our approach reached second place in the MineRL competition at NeurIPS 2019.
Here we report stronger results that can be used as a starting point for future
competition entries and related research. Our code is available at
https://github.com/amiranas/minerl_imitation_learning.
- Abstract(参考訳): 模倣学習は、没入環境における感覚運動の協調を学習するための強力な技術群である。
模倣学習をマインクラフト環境における難解な探索問題に対して最先端のパフォーマンスを達成するために応用する。
本稿では,ネットワークアーキテクチャ,損失関数,データ拡張の影響を明らかにする実験を報告する。
私たちのアプローチの初期バージョンは、NeurIPS 2019でMineRLコンペティションで2位になった。
ここでは,今後のコンペティションエントリや関連する研究の出発点として使用できる,より強力な結果を報告する。
私たちのコードはhttps://github.com/amiranas/minerl_imitation_learningで利用可能です。
関連論文リスト
- Exploring Text-to-Motion Generation with Human Preference [59.28730218998923]
本稿では,テキスト・トゥ・モーション・ジェネレーションにおける嗜好学習の探索について述べる。
テキスト・トゥ・モーション・ジェネレーションの現在の改善は、まだモーションキャプチャシステムを備えたエキスパート・ラベラーを必要とするデータセットに依存していることがわかった。
我々は、好み学習が、現在のテキスト・ツー・モーション生成モデルを大幅に改善する可能性があることを示す。
論文 参考訳(メタデータ) (2024-04-15T04:14:42Z) - Craftax: A Lightning-Fast Benchmark for Open-Ended Reinforcement Learning [4.067733179628694]
Craftaxは、JAXでCrafterをベースとして書き直したもので、Pythonネイティブのオリジナルよりも最大250倍高速である。
10億の環境相互作用を使ったPPOの実行は、1つのGPUだけで1時間以内で終了する。
本研究では,グローバル・エピソード探索を含む既存の手法と,教師なし環境設計がベンチマークで実質的な進歩を損なうことを示す。
論文 参考訳(メタデータ) (2024-02-26T18:19:07Z) - Evolving Knowledge Mining for Class Incremental Segmentation [113.59611699693092]
クラスインクリメンタルセマンティック(CISS)は、最近、現実世界のアプリケーションにおいて大きな重要性があるため、トレンドとなっている。
冷凍バックボーンを用いた新規なkNowleDgeマイニング法を提案する。
提案手法を2つの広く使用されているベンチマークで評価し,新しい最先端性能を一貫して示す。
論文 参考訳(メタデータ) (2023-06-03T07:03:15Z) - Open-Ended Reinforcement Learning with Neural Reward Functions [2.4366811507669115]
高次元ロボット環境では、ハーフチェエタのフロントフリップやヒューマノイドの片足ランニングなど、幅広い興味深いスキルを学びます。
ピクセルベースのMontezumaのRevenge環境では、我々の手法は最小限の変更でも機能し、アイテムとのインタラクションや多様な場所の訪問に関わる複雑なスキルを学ぶ。
論文 参考訳(メタデータ) (2022-02-16T15:55:22Z) - JueWu-MC: Playing Minecraft with Sample-efficient Hierarchical
Reinforcement Learning [13.57305458734617]
本稿では,表現学習と模倣学習を併用したサンプル効率の高い階層的RLアプローチであるJueWu-MCを提案する。
具体的には、高レベルのコントローラがオプションを制御するポリシーを学習し、低レベルのワーカーが各サブタスクの解決を学ぶという2つの階層構造を含む。
サブタスクの学習を促進するために,1)行動と表現の基盤となる関係を捉えた行動認識表現学習,2)効率的な探索のための識別器に基づく自己刺激学習,3)一貫性フィルタリングによるアンサンブル行動のクローニングなどを組み合わせた手法を提案する。
論文 参考訳(メタデータ) (2021-12-07T09:24:49Z) - CoDiM: Learning with Noisy Labels via Contrastive Semi-Supervised
Learning [58.107679606345165]
ノイズラベル学習、半教師付き学習、コントラスト学習は、アノテーションコストの削減を必要とする学習プロセスを設計するための3つの異なる戦略である。
本稿では,コントラシブ・セミスーパーバイズド・ラーニング・アルゴリズムであるCSSLと,ノイズラベルを用いた学習のための新しいアルゴリズムであるCoDiMを提案する。
論文 参考訳(メタデータ) (2021-11-23T04:56:40Z) - Incremental Class Learning using Variational Autoencoders with
Similarity Learning [0.0]
漸進的な学習におけるニューラルネットワークの破滅的な忘れは、依然として難しい問題である。
本研究は,段階的な授業学習における4つのよく知られた計量に基づく損失関数の破滅的忘れについて検討する。
角損失はほとんど影響を受けず, 対照的に3重項損失, 中心損失は良好な鉱業技術であった。
論文 参考訳(メタデータ) (2021-10-04T10:19:53Z) - The MineRL 2020 Competition on Sample Efficient Reinforcement Learning
using Human Priors [62.9301667732188]
我々は,MineRLコンペティションの第2イテレーションを提案する。
競争の主な目標は、人間のデモンストレーションを効率的に活用できるアルゴリズムの開発を促進することです。
コンペティションは、データセットと環境のペアバージョンが複数提供される2ラウンドで構成されている。
各ラウンドの終わりに、競合他社はコンテナ化された学習アルゴリズムをaicrowdプラットフォームに提出する。
論文 参考訳(メタデータ) (2021-01-26T20:32:30Z) - LID 2020: The Learning from Imperfect Data Challenge Results [242.86700551532272]
Imperfect Dataワークショップからの学習は、新しいアプローチの開発に刺激を与え、促進することを目的としている。
我々は、弱教師付き学習環境における最先端のアプローチを見つけるために、3つの課題を編成する。
この技術的レポートは、課題のハイライトを要約している。
論文 参考訳(メタデータ) (2020-10-17T13:06:12Z) - An Overview of Deep Learning Architectures in Few-Shot Learning Domain [0.0]
Few-Shot Learning(ワンショットラーニング、Few-Shot Learning)は、機械学習のサブフィールドであり、少ないデータで望ましい目的を学習できるモデルを作成することを目的としている。
我々は、いくつかのショットラーニングに対するよく知られたディープラーニングベースのアプローチをレビューした。
論文 参考訳(メタデータ) (2020-08-12T06:58:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。