論文の概要: RangL: A Reinforcement Learning Competition Platform
- arxiv url: http://arxiv.org/abs/2208.00003v1
- Date: Thu, 28 Jul 2022 09:44:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 13:30:16.941813
- Title: RangL: A Reinforcement Learning Competition Platform
- Title(参考訳): RangL:強化学習コンペティションプラットフォーム
- Authors: Viktor Zobernig, Richard A. Saldanha, Jinke He, Erica van der Sar,
Jasper van Doorn, Jia-Chen Hua, Lachlan R. Mason, Aleksander Czechowski,
Drago Indjic, Tomasz Kosmala, Alessandro Zocca, Sandjai Bhulai, Jorge
Montalvo Arvizu, Claude Kl\"ockl, John Moriarty
- Abstract要約: RangLは、現実世界の動的決定問題に関連する競争を支援することで、強化学習のより広範な普及を促進することを目的としている。
この記事では、RangLチームが開発し、2022 Pathways to Net Zero Challengeにデプロイした再利用可能なコードリポジトリについて説明する。
このチャレンジの勝利の解決策は、2050年までに英国のエネルギー移行政策をゼロ炭素排出量に最適化することである。
- 参考スコア(独自算出の注目度): 82.1944886411643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The RangL project hosted by The Alan Turing Institute aims to encourage the
wider uptake of reinforcement learning by supporting competitions relating to
real-world dynamic decision problems. This article describes the reusable code
repository developed by the RangL team and deployed for the 2022 Pathways to
Net Zero Challenge, supported by the UK Net Zero Technology Centre. The winning
solutions to this particular Challenge seek to optimize the UK's energy
transition policy to net zero carbon emissions by 2050. The RangL repository
includes an OpenAI Gym reinforcement learning environment and code that
supports both submission to, and evaluation in, a remote instance of the open
source EvalAI platform as well as all winning learning agent strategies. The
repository is an illustrative example of RangL's capability to provide a
reusable structure for future challenges.
- Abstract(参考訳): アランチューリング研究所が主催するRangLプロジェクトは、現実世界の動的決定問題に関する競争を支援することで、強化学習のより広範な普及を促進することを目的としている。
この記事では、RangLチームが開発し、UK Net Zero Technology Centreがサポートする2022 Pathways to Net Zero Challengeのためにデプロイした再利用可能なコードリポジトリについて説明する。
このチャレンジの勝利の解決策は、2050年までに英国のエネルギー移行政策をゼロ炭素排出量に最適化することである。
RangLリポジトリには、OpenAI Gym強化学習環境と、オープンソースのEvalAIプラットフォームのリモートインスタンスへの提出と評価の両方をサポートするコード、そして、すべての勝利した学習エージェント戦略が含まれている。
このリポジトリは、将来の課題に対して再利用可能な構造を提供するRangLの機能の例である。
関連論文リスト
- State and Action Factorization in Power Grids [47.65236082304256]
状態と行動成分の相関関係をデータに基づいて推定するドメインに依存しないアルゴリズムを提案する。
このアルゴリズムはGrid2Opシミュレータで得られた電力グリッドベンチマークで検証される。
論文 参考訳(メタデータ) (2024-09-03T15:00:58Z) - Benchmarking Robustness and Generalization in Multi-Agent Systems: A
Case Study on Neural MMO [50.58083807719749]
IJCAI 2022で開催されている第2回Neural MMOチャレンジの結果を報告する。
この競合はマルチエージェントシステムの堅牢性と一般化をターゲットにしている。
環境ラッパー、ベースライン、可視化ツール、そしてさらなる研究のための選択されたポリシーを含むベンチマークをオープンソースにします。
論文 参考訳(メタデータ) (2023-08-30T07:16:11Z) - Towards Solving Fuzzy Tasks with Human Feedback: A Retrospective of the
MineRL BASALT 2022 Competition [20.922425732605756]
BASALTチャレンジでは、Minecraftの難易度の高い報酬関数でタスクを解くアルゴリズムを開発するために、チームに競うように求めている。
競合について説明し、トップソリューションの概要を提供する。
論文 参考訳(メタデータ) (2023-03-23T17:59:17Z) - Lessons learned from the NeurIPS 2021 MetaDL challenge: Backbone
fine-tuning without episodic meta-learning dominates for few-shot learning
image classification [40.901760230639496]
本稿では,MetaDLコンペティションシリーズの設計,データセット,最良の実験結果,NeurIPS 2021チャレンジにおける最上位の手法について述べる。
トップ参加者のソリューションがオープンソース化された。
論文 参考訳(メタデータ) (2022-06-15T10:27:23Z) - MineRL Diamond 2021 Competition: Overview, Results, and Lessons Learned [60.11039031794829]
強化学習コンペティションは、特定の問題に対する解決策を開発するための適切なスコープと支援を提供することによって、分野を前進させる。
私たちはMineRL ObtainDiamondコンペティションの第3回MineRL Diamond 2021を開催しました。
この簡単なトラックの参加者はダイヤモンドを得ることができ、難しいトラックの参加者は同じタスクで一般化可能なソリューションを進めた。
論文 参考訳(メタデータ) (2022-02-17T13:37:35Z) - Two-Stream Consensus Network: Submission to HACS Challenge 2021
Weakly-Supervised Learning Track [78.64815984927425]
弱い監督による時間的行動ローカライゼーションの目標は、ビデオの興味ある動作を時間的に特定し、分類することである。
この課題では,2ストリームコンセンサスネットワーク(TSCN)を主要なフレームワークとして採用しています。
この課題では,本手法が今後の学術研究のベースラインとなることを期待して,第2位にランクインした。
論文 参考訳(メタデータ) (2021-06-21T03:36:36Z) - Towards robust and domain agnostic reinforcement learning competitions [12.731614722371376]
強化学習コンペティションは標準研究ベンチマークの基礎を形成している。
それにもかかわらず、ほとんどの課題は、同じ根本的な問題に悩まされている。
本稿では,これらの障壁を克服するアルゴリズムの開発を促進する,競争設計の新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-06-07T16:15:46Z) - The MineRL 2020 Competition on Sample Efficient Reinforcement Learning
using Human Priors [62.9301667732188]
我々は,MineRLコンペティションの第2イテレーションを提案する。
競争の主な目標は、人間のデモンストレーションを効率的に活用できるアルゴリズムの開発を促進することです。
コンペティションは、データセットと環境のペアバージョンが複数提供される2ラウンドで構成されている。
各ラウンドの終わりに、競合他社はコンテナ化された学習アルゴリズムをaicrowdプラットフォームに提出する。
論文 参考訳(メタデータ) (2021-01-26T20:32:30Z) - A Centralised Soft Actor Critic Deep Reinforcement Learning Approach to
District Demand Side Management through CityLearn [0.0]
強化学習は、需要側管理のための有望なモデルフリーで適応的なコントローラである。
本稿では,CityLearn Challengeに提出されたアルゴリズムの結果について述べる。
提案手法は,集中型「ソフトアクター批判」深部強化学習エージェントを用いて,課題において第2位を確保した。
論文 参考訳(メタデータ) (2020-09-22T14:03:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。