論文の概要: TorchRL: A data-driven decision-making library for PyTorch
- arxiv url: http://arxiv.org/abs/2306.00577v1
- Date: Thu, 1 Jun 2023 11:45:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 16:32:00.298385
- Title: TorchRL: A data-driven decision-making library for PyTorch
- Title(参考訳): TorchRL: PyTorch用のデータ駆動意思決定ライブラリ
- Authors: Albert Bou, Matteo Bettini, Sebastian Dittert, Vikash Kumar, Shagun
Sodhani, Xiaomeng Yang, Gianni De Fabritiis, Vincent Moens
- Abstract要約: 我々はPyTorchの汎用制御ライブラリであるTorchRLを提案する。
TorchRLは強化学習(RL)と制御の多くの分野にわたるアルゴリズム開発を容易にする。
我々は新しいPyTorchプリミティブであるDictを導入し、モジュール性を維持しながらライブラリのコンポーネントの統合を促進するフレキシブルなデータキャリアです。
- 参考スコア(独自算出の注目度): 17.452885512463894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Striking a balance between integration and modularity is crucial for a
machine learning library to be versatile and user-friendly, especially in
handling decision and control tasks that involve large development teams and
complex, real-world data, and environments. To address this issue, we propose
TorchRL, a generalistic control library for PyTorch that provides
well-integrated, yet standalone components. With a versatile and robust
primitive design, TorchRL facilitates streamlined algorithm development across
the many branches of Reinforcement Learning (RL) and control. We introduce a
new PyTorch primitive, TensorDict, as a flexible data carrier that empowers the
integration of the library's components while preserving their modularity.
Hence replay buffers, datasets, distributed data collectors, environments,
transforms and objectives can be effortlessly used in isolation or combined. We
provide a detailed description of the building blocks, supporting code examples
and an extensive overview of the library across domains and tasks. Finally, we
show comparative benchmarks to demonstrate its computational efficiency.
TorchRL fosters long-term support and is publicly available on GitHub for
greater reproducibility and collaboration within the research community. The
code is opensourced on https://github.com/pytorch/rl.
- Abstract(参考訳): 統合とモジュール性のバランスを取ることは、機械学習ライブラリが汎用的でユーザフレンドリーである上で、特に大きな開発チームや複雑な現実のデータ、環境に関わる意思決定と制御タスクを扱う上で非常に重要です。
この問題に対処するため,我々は,pytorchの汎用制御ライブラリであるtorchrlを提案する。
汎用的で堅牢なプリミティブ設計により、TorchRLは強化学習(RL)と制御の多くの分野にわたるアルゴリズム開発を容易にする。
我々は新しいPyTorchプリミティブであるTensorDictを、モジュール性を維持しながらライブラリのコンポーネントの統合を促進する柔軟なデータキャリアとして導入する。
そのため、バッファ、データセット、分散データコレクタ、環境、変換、目的を分離または組み合わせて使用することができる。
我々は、ビルディングブロックの詳細な説明、コード例のサポート、ドメインとタスクにわたるライブラリの詳細な概要を提供する。
最後に,計算効率を示すための比較ベンチマークを示す。
TorchRLは長期的なサポートを強化し、GitHubで公開されており、研究コミュニティ内でより再現性とコラボレーションが可能である。
コードはhttps://github.com/pytorch/rlで公開されている。
関連論文リスト
- How to Understand Whole Software Repository? [64.19431011897515]
リポジトリ全体に対する優れた理解は、自動ソフトウェアエンジニアリング(ASE)への重要な道になるでしょう。
本研究では,リポジトリ全体を包括的に理解するためのエージェントによるRepoUnderstanderという新しい手法を開発した。
リポジトリレベルの知識をより活用するために、エージェントをまとめ、分析し、計画する。
論文 参考訳(メタデータ) (2024-06-03T15:20:06Z) - pyvene: A Library for Understanding and Improving PyTorch Models via
Interventions [79.72930339711478]
$textbfpyvene$は、さまざまなPyTorchモジュールに対するカスタマイズ可能な介入をサポートするオープンソースライブラリである。
私たちは、$textbfpyvene$が、ニューラルモデルへの介入を実行し、他のモデルとインターバルされたモデルを共有するための統一されたフレームワークを提供する方法を示します。
論文 参考訳(メタデータ) (2024-03-12T16:46:54Z) - XuanCe: A Comprehensive and Unified Deep Reinforcement Learning Library [18.603206638756056]
XuanCeは総合的に統合された深層強化学習(DRL)ライブラリである。
XuanCeは40以上の古典DRLとマルチエージェントDRLアルゴリズムを含む幅広い機能を提供している。
XuanCeはオープンソースで、https://agi-brain.com/agi-brain/xuance.gitでアクセスできる。
論文 参考訳(メタデータ) (2023-12-25T14:45:39Z) - OpenRL: A Unified Reinforcement Learning Framework [19.12129820612253]
先進的な強化学習(RL)フレームワークであるOpenRLを紹介する。
シングルエージェントの課題から複雑なマルチエージェントシステムまで、さまざまなタスクに対応するように設計されている。
自然言語処理(NLP)とRLを統合することで、研究者はRLトレーニングと言語中心のタスクを効果的に組み合わせることができる。
論文 参考訳(メタデータ) (2023-12-20T12:04:06Z) - torchgfn: A PyTorch GFlowNet library [56.071033896777784]
torchgfnはPyTorchライブラリで、このニーズに対処することを目指している。
環境のためのシンプルなAPIと、サンプルと損失のための有用な抽象化を提供する。
論文 参考訳(メタデータ) (2023-05-24T00:20:59Z) - SequeL: A Continual Learning Library in PyTorch and JAX [50.33956216274694]
SequeLは継続学習のためのライブラリで、PyTorchとJAXフレームワークの両方をサポートする。
それは、正規化ベースのアプローチ、リプレイベースのアプローチ、ハイブリッドアプローチを含む、幅広い連続学習アルゴリズムのための統一インターフェースを提供する。
私たちはSequeLをオープンソースライブラリとしてリリースし、研究者や開発者が自身の目的で簡単にライブラリを実験し拡張することができます。
論文 参考訳(メタデータ) (2023-04-21T10:00:22Z) - Torchhd: An Open Source Python Library to Support Research on
Hyperdimensional Computing and Vector Symbolic Architectures [99.70485761868193]
我々はHD/VSA用の高性能オープンソースPythonライブラリであるTorchhdを紹介する。
Torchhdは、HD/VSAをよりアクセスしやすくし、さらなる研究とアプリケーション開発のための効率的な基盤となることを目指している。
論文 参考訳(メタデータ) (2022-05-18T20:34:25Z) - MBRL-Lib: A Modular Library for Model-based Reinforcement Learning [13.467075854633213]
PyTorchに基づく継続的ステートアクション空間におけるモデルベースの強化学習のための機械学習ライブラリであるMBRL-Libを紹介した。
研究者の双方にとって、新しいアルゴリズムを簡単に開発、デバッグ、比較し、専門家でないユーザーと組み合わせて、最先端のアルゴリズムのデプロイのエントリーバーを低くするプラットフォームとして設計されている。
論文 参考訳(メタデータ) (2021-04-20T17:58:22Z) - MushroomRL: Simplifying Reinforcement Learning Research [60.70556446270147]
MushroomRLはオープンソースのPythonライブラリで、強化学習(RL)実験の実装と実行を簡単にするために開発された。
他の利用可能なライブラリと比較して、MushroomRLは、新しいRL方法論の実装とテストの労力を最小限に抑えるために、包括的で柔軟なフレームワークを提供することを目的として作られた。
論文 参考訳(メタデータ) (2020-01-04T17:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。