論文の概要: Pearl: Parallel Evolutionary and Reinforcement Learning Library
- arxiv url: http://arxiv.org/abs/2201.09568v1
- Date: Mon, 24 Jan 2022 10:22:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 01:19:06.449999
- Title: Pearl: Parallel Evolutionary and Reinforcement Learning Library
- Title(参考訳): Pearl:並列進化と強化学習ライブラリ
- Authors: Rohan Tangri, Danilo P. Mandic, Anthony G. Constantinides
- Abstract要約: 私たちはPearlを開発した。PearlはオープンソースのPythonライブラリで、最適化された強化学習、進化的計算、これら2つの組み合わせを実行するように設計されています。
モジュールと拡張可能なコンポーネント、評価されたモジュール設定、ボード統合、カスタムコールバック、包括的な視覚化。
- 参考スコア(独自算出の注目度): 24.833522849004265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement learning is increasingly finding success across domains where
the problem can be represented as a Markov decision process. Evolutionary
computation algorithms have also proven successful in this domain, exhibiting
similar performance to the generally more complex reinforcement learning.
Whilst there exist many open-source reinforcement learning and evolutionary
computation libraries, no publicly available library combines the two
approaches for enhanced comparison, cooperation, or visualization. To this end,
we have created Pearl (https://github.com/LondonNode/Pearl), an open source
Python library designed to allow researchers to rapidly and conveniently
perform optimized reinforcement learning, evolutionary computation and
combinations of the two. The key features within Pearl include: modular and
expandable components, opinionated module settings, Tensorboard integration,
custom callbacks and comprehensive visualizations.
- Abstract(参考訳): 強化学習は、問題がマルコフ決定プロセスとして表現できる領域をまたいで、ますます成功している。
進化的計算アルゴリズムもこの領域で成功し、一般に複雑な強化学習と同じような性能を示した。
オープンソースの強化学習ライブラリや進化計算ライブラリは数多く存在するが、比較、協調、視覚化のための2つのアプローチを組み合わせた公開ライブラリは存在しない。
この目的のために私たちはPearl(https://github.com/LondonNode/Pearl)というオープンソースのPythonライブラリを開発しました。
モジュールと拡張可能なコンポーネント、評価されたモジュール設定、Tensorboard統合、カスタムコールバック、包括的な視覚化。
関連論文リスト
- DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - SequeL: A Continual Learning Library in PyTorch and JAX [50.33956216274694]
SequeLは継続学習のためのライブラリで、PyTorchとJAXフレームワークの両方をサポートする。
それは、正規化ベースのアプローチ、リプレイベースのアプローチ、ハイブリッドアプローチを含む、幅広い連続学習アルゴリズムのための統一インターフェースを提供する。
私たちはSequeLをオープンソースライブラリとしてリリースし、研究者や開発者が自身の目的で簡単にライブラリを実験し拡張することができます。
論文 参考訳(メタデータ) (2023-04-21T10:00:22Z) - CoRL: Environment Creation and Management Focused on System Integration [0.0]
コア強化学習ライブラリ(Core Reinforcement Learning Library, CoRL)は、モジュール式で構成可能で、設定可能な環境作成ツールである。
簡単に読み取れる構成ファイル、ピダンティックバリデータ、およびファクタデザインパターンを使用することで、エージェントの観察、報酬、完了条件の微調整を可能にする。
論文 参考訳(メタデータ) (2023-03-03T19:01:53Z) - OpenMixup: Open Mixup Toolbox and Benchmark for Visual Representation Learning [53.57075147367114]
視覚表現学習のための最初のミックスアップ拡張とベンチマークであるOpenMixupを紹介する。
私たちは、スクラッチから18の代表的なミックスアップベースラインをトレーニングし、11の画像データセットでそれらを厳格に評価します。
また、人気のあるビジョンバックボーン、最適化戦略、分析ツールキットのコレクションを含むモジュラーバックボーンをオープンソースにしています。
論文 参考訳(メタデータ) (2022-09-11T12:46:01Z) - Evolutionary bagged ensemble learning [0.3670422696827526]
Baggingは、個々の機械学習メソッドによってトレーニングされた、バッグとして知られるデータのサブグループを生成する、注目すべきアンサンブル学習手法である。
本稿では,進化的階層型アンサンブル学習を提案する。そこでは,進化的アルゴリズムを用いてバッグの内容を進化させる。
論文 参考訳(メタデータ) (2022-08-04T01:52:57Z) - PyRelationAL: a python library for active learning research and development [1.0061110876649197]
アクティブラーニング(英: Active Learning, AL)は、反復的かつ経済的にデータを取得する手法の開発に焦点を当てたMLのサブフィールドである。
本稿では,AL研究のためのオープンソースライブラリであるPyRelationALを紹介する。
プールベースのアクティブラーニング戦略を構成するための2段階の設計方法論をベースとしたモジュラーツールキットについて述べる。
論文 参考訳(メタデータ) (2022-05-23T08:21:21Z) - IMBENS: Ensemble Class-imbalanced Learning in Python [26.007498723608155]
imbensはオープンソースのPythonツールボックスで、クラス不均衡なデータに対してアンサンブル学習アルゴリズムを実装し、デプロイする。
imbensはMITオープンソースライセンスでリリースされており、Python Package Index (PyPI)からインストールすることができる。
論文 参考訳(メタデータ) (2021-11-24T20:14:20Z) - Avalanche: an End-to-End Library for Continual Learning [81.84325803942811]
PyTorchをベースとした継続的学習研究のためのオープンソースライブラリであるAvalancheを提案する。
avalancheは、継続的学習アルゴリズムの高速プロトタイピング、トレーニング、再現可能な評価のための共有とコラボレーションを提供するように設計されている。
論文 参考訳(メタデータ) (2021-04-01T11:31:46Z) - Captum: A unified and generic model interpretability library for PyTorch [49.72749684393332]
我々は,PyTorch用の新しい,統一されたオープンソースモデル解釈可能性ライブラリを紹介する。
このライブラリには、多くの勾配と摂動に基づく属性アルゴリズムの汎用的な実装が含まれている。
分類モデルと非分類モデルの両方に使用できる。
論文 参考訳(メタデータ) (2020-09-16T18:57:57Z) - SUNRISE: A Simple Unified Framework for Ensemble Learning in Deep
Reinforcement Learning [102.78958681141577]
SUNRISEは単純な統一アンサンブル法であり、様々な非政治的な深層強化学習アルゴリズムと互換性がある。
SUNRISEは, (a) アンサンブルに基づく重み付きベルマンバックアップと, (b) 最上位の自信境界を用いて行動を選択する推論手法を統合し, 効率的な探索を行う。
論文 参考訳(メタデータ) (2020-07-09T17:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。