論文の概要: MineRL Diamond 2021 Competition: Overview, Results, and Lessons Learned
- arxiv url: http://arxiv.org/abs/2202.10583v1
- Date: Thu, 17 Feb 2022 13:37:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-27 16:59:55.942945
- Title: MineRL Diamond 2021 Competition: Overview, Results, and Lessons Learned
- Title(参考訳): minerl diamond 2021コンペティション:概要,結果,教訓
- Authors: Anssi Kanervisto, Stephanie Milani, Karolis Ramanauskas, Nicholay
Topin, Zichuan Lin, Junyou Li, Jianing Shi, Deheng Ye, Qiang Fu, Wei Yang,
Weijun Hong, Zhongyue Huang, Haicheng Chen, Guangjun Zeng, Yue Lin, Vincent
Micheli, Eloi Alonso, Fran\c{c}ois Fleuret, Alexander Nikulin, Yury Belousov,
Oleg Svidchenko, Aleksei Shpilman
- Abstract要約: 強化学習コンペティションは、特定の問題に対する解決策を開発するための適切なスコープと支援を提供することによって、分野を前進させる。
私たちはMineRL ObtainDiamondコンペティションの第3回MineRL Diamond 2021を開催しました。
この簡単なトラックの参加者はダイヤモンドを得ることができ、難しいトラックの参加者は同じタスクで一般化可能なソリューションを進めた。
- 参考スコア(独自算出の注目度): 60.11039031794829
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning competitions advance the field by providing
appropriate scope and support to develop solutions toward a specific problem.
To promote the development of more broadly applicable methods, organizers need
to enforce the use of general techniques, the use of sample-efficient methods,
and the reproducibility of the results. While beneficial for the research
community, these restrictions come at a cost -- increased difficulty. If the
barrier for entry is too high, many potential participants are demoralized.
With this in mind, we hosted the third edition of the MineRL ObtainDiamond
competition, MineRL Diamond 2021, with a separate track in which we permitted
any solution to promote the participation of newcomers. With this track and
more extensive tutorials and support, we saw an increased number of
submissions. The participants of this easier track were able to obtain a
diamond, and the participants of the harder track progressed the generalizable
solutions in the same task.
- Abstract(参考訳): 強化学習コンペティションは、特定の問題に対する解決策を開発するための適切なスコープと支援を提供することによって、分野を前進させる。
より広範に適用可能な手法の開発を促進するためには,一般技術の使用,サンプル効率のよい手法の使用,その結果の再現性等が求められる。
研究コミュニティにとって有益ではあるが、これらの制限はコストがかかる。
参入障壁が高すぎると、多くの潜在的な参加者が解体される。
このことを念頭に置いて、我々はミネル・アーナダイアモンド・コンペティションの第3版、ミネル・ダイアモンド2021を主催し、新参者の参加を促進するためのいかなる解決策も許した。
このトラックとより広範なチュートリアルとサポートにより、投稿数が増加した。
この容易な軌道の参加者はダイヤモンドを得ることができ、硬い軌道の参加者は同じ作業で一般化可能な解を進めた。
関連論文リスト
- Benchmarking Robustness and Generalization in Multi-Agent Systems: A
Case Study on Neural MMO [50.58083807719749]
IJCAI 2022で開催されている第2回Neural MMOチャレンジの結果を報告する。
この競合はマルチエージェントシステムの堅牢性と一般化をターゲットにしている。
環境ラッパー、ベースライン、可視化ツール、そしてさらなる研究のための選択されたポリシーを含むベンチマークをオープンソースにします。
論文 参考訳(メタデータ) (2023-08-30T07:16:11Z) - The STOIC2021 COVID-19 AI challenge: applying reusable training
methodologies to private data [60.94672667514737]
本研究は、プライベートデータ上でのトレーニングソリューションを可能にするType Three (T3)チャレンジフォーマットを実装した。
T3では、チャレンジオーガナイザが参加者の提供するトレーニングデータに基づいてトレーニングを行う。
勝利解は、重篤なCOVID-19と非重症なCOVID-19(0.815)の鑑別のために、受信機動作特性曲線の下にある領域を得た。
論文 参考訳(メタデータ) (2023-06-18T05:48:28Z) - Lessons learned from the NeurIPS 2021 MetaDL challenge: Backbone
fine-tuning without episodic meta-learning dominates for few-shot learning
image classification [40.901760230639496]
本稿では,MetaDLコンペティションシリーズの設計,データセット,最良の実験結果,NeurIPS 2021チャレンジにおける最上位の手法について述べる。
トップ参加者のソリューションがオープンソース化された。
論文 参考訳(メタデータ) (2022-06-15T10:27:23Z) - Retrospective on the 2021 BASALT Competition on Learning from Human
Feedback [92.37243979045817]
競争の目的は、人間のフィードバック(LfHF)技術から学び、オープンワールドの課題を解決するエージェントへの研究を促進することであった。
LfHF技術の使用を義務付けるのではなく、ビデオゲームMinecraftで達成すべき自然言語の4つのタスクについて説明した。
チームは、様々な可能な人間のフィードバックタイプにまたがる多様なLfHFアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-04-14T17:24:54Z) - Towards robust and domain agnostic reinforcement learning competitions [12.731614722371376]
強化学習コンペティションは標準研究ベンチマークの基礎を形成している。
それにもかかわらず、ほとんどの課題は、同じ根本的な問題に悩まされている。
本稿では,これらの障壁を克服するアルゴリズムの開発を促進する,競争設計の新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-06-07T16:15:46Z) - The MineRL 2020 Competition on Sample Efficient Reinforcement Learning
using Human Priors [62.9301667732188]
我々は,MineRLコンペティションの第2イテレーションを提案する。
競争の主な目標は、人間のデモンストレーションを効率的に活用できるアルゴリズムの開発を促進することです。
コンペティションは、データセットと環境のペアバージョンが複数提供される2ラウンドで構成されている。
各ラウンドの終わりに、競合他社はコンテナ化された学習アルゴリズムをaicrowdプラットフォームに提出する。
論文 参考訳(メタデータ) (2021-01-26T20:32:30Z) - Competing Bandits: The Perils of Exploration Under Competition [99.68537519404727]
オンラインプラットフォーム上での探索と競争の相互作用について検討する。
私たちは、スタークコンペティションが企業に対して、低福祉につながる「欲張り」バンディットアルゴリズムにコミットするよう促すことに気付きました。
競争を弱めるための2つのチャンネルについて検討する。
論文 参考訳(メタデータ) (2020-07-20T14:19:08Z) - Retrospective Analysis of the 2019 MineRL Competition on Sample
Efficient Reinforcement Learning [27.440055101691115]
我々は,ニューラル情報処理システム(NeurIPS)に関する第3回大会で,人間の事前知識を用いたサンプル効率的な強化学習に関するMineRLコンペティションを開催した。
この競争の第一の目的は、複雑で階層的でスパースな環境を解決するのに必要なサンプルの数を減らし、強化学習と共に人間のデモンストレーションを使用するアルゴリズムの開発を促進することであった。
論文 参考訳(メタデータ) (2020-03-10T21:39:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。