論文の概要: Dragonfly: a modular deep reinforcement learning library
- arxiv url: http://arxiv.org/abs/2505.03778v1
- Date: Wed, 30 Apr 2025 11:39:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.795805
- Title: Dragonfly: a modular deep reinforcement learning library
- Title(参考訳): Dragonfly: モジュール型の深層強化学習ライブラリ
- Authors: Jonathan Viquerat, Paul Garnier, Amirhossein Bateni, Elie Hachem,
- Abstract要約: Dragonflyはモジュール性を重視した強化学習ライブラリである。
これはシリアライズに依存しており、ビルディングブロックをスワップし、パラメータスイープを実行することができる。
その機能の一部は、数値シミュレーションのようなCPU集約環境向けに特別に設計されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Dragonfly is a deep reinforcement learning library focused on modularity, in order to ease experimentation and developments. It relies on a json serialization that allows to swap building blocks and perform parameter sweep, while minimizing code maintenance. Some of its features are specifically designed for CPU-intensive environments, such as numerical simulations. Its performance on standard agents using common benchmarks compares favorably with the literature.
- Abstract(参考訳): Dragonflyは、モジュール性を重視した深い強化学習ライブラリで、実験や開発を容易にする。
これはjsonシリアライゼーションに依存しており、コードのメンテナンスを最小限にしながら、ビルディングブロックをスワップしてパラメータスイープを実行することができる。
その機能の一部は、数値シミュレーションのようなCPU集約環境向けに特別に設計されている。
一般的なベンチマークを用いた標準エージェントの性能は、文献と好意的に比較できる。
関連論文リスト
- DitHub: A Modular Framework for Incremental Open-Vocabulary Object Detection [32.77455136447568]
DitHubは、効率的な適応モジュールのライブラリを作成し、管理するように設計されたフレームワークである。
Version Control SystemsにインスパイアされたDitHubは、必要に応じてフェッチしてマージできるブランチのようなエキスパートモジュールを編成する。
提案手法は,ODinW-13ベンチマークとODinW-Oベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2025-03-12T11:15:34Z) - One Model to Train them All: Hierarchical Self-Distillation for Enhanced Early Layer Embeddings [2.1262605464247812]
1Bパラメータを持つモジュール型マルチエグジットエンコーダであるMODcularSTARENCODERを導入し、コード検索の範囲内での複数のタスクに有用である。
本アーキテクチャは,構文構造と意味構造を体系的に捉えることで,テキスト・ツー・コード検索とコード・ツー・コード検索の強化に重点を置いている。
また、コード翻訳によって構築された新しいデータセットもリリースし、様々なプログラミング言語にまたがって、従来のテキスト-コードベンチマークをシームレスに拡張しました。
論文 参考訳(メタデータ) (2025-03-04T21:08:17Z) - Commit0: Library Generation from Scratch [77.38414688148006]
Commit0は、AIエージェントにスクラッチからライブラリを書くよう促すベンチマークである。
エージェントには、ライブラリのAPIを概説する仕様文書と、インタラクティブなユニットテストスイートが提供されている。
Commit0はまた、モデルが生成したコードに対して静的解析と実行フィードバックを受け取る、インタラクティブな環境も提供する。
論文 参考訳(メタデータ) (2024-12-02T18:11:30Z) - LibEvolutionEval: A Benchmark and Study for Version-Specific Code Generation [40.87656746406113]
LibEvolutionEvalは,インラインコード補完を正確に行うために,ライブラリ進化の理解を必要とする研究である。
パブリック・モデルの評価を行い、パブリック・ライブラリの進化がモデルの性能に大きく影響することを発見した。
本稿では,検索したバージョン固有のライブラリの文書化と,高速に進化するパッケージを扱う際のモデルの能力向上について検討する。
論文 参考訳(メタデータ) (2024-11-19T21:52:23Z) - $\texttt{skwdro}$: a library for Wasserstein distributionally robust machine learning [6.940992962425166]
skwdroは、堅牢な機械学習モデルをトレーニングするためのPythonライブラリである。
一般的な目的のために、Scikit-learn互換の推定器と、PyTorchモジュール用のラッパーの両方を備えている。
論文 参考訳(メタデータ) (2024-10-28T17:16:00Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z) - SequeL: A Continual Learning Library in PyTorch and JAX [50.33956216274694]
SequeLは継続学習のためのライブラリで、PyTorchとJAXフレームワークの両方をサポートする。
それは、正規化ベースのアプローチ、リプレイベースのアプローチ、ハイブリッドアプローチを含む、幅広い連続学習アルゴリズムのための統一インターフェースを提供する。
私たちはSequeLをオープンソースライブラリとしてリリースし、研究者や開発者が自身の目的で簡単にライブラリを実験し拡張することができます。
論文 参考訳(メタデータ) (2023-04-21T10:00:22Z) - Merlion: A Machine Learning Library for Time Series [73.46386700728577]
Merlionは時系列のためのオープンソースの機械学習ライブラリである。
モデルの統一インターフェースと、異常検出と予測のためのデータセットを備えている。
Merlionはまた、本番環境でのモデルのライブデプロイメントと再トレーニングをシミュレートするユニークな評価フレームワークも提供する。
論文 参考訳(メタデータ) (2021-09-20T02:03:43Z) - GroupBERT: Enhanced Transformer Architecture with Efficient Grouped
Structures [57.46093180685175]
トランスフォーマー層の構造を改良し,より効率的なアーキテクチャを実現する。
自己認識モジュールを補完する畳み込みモジュールを追加し、局所的およびグローバルな相互作用の学習を分離する。
得られたアーキテクチャを言語表現学習に適用し、異なるスケールのBERTモデルと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-06-10T15:41:53Z) - Torch-Struct: Deep Structured Prediction Library [138.5262350501951]
本稿では,構造化予測ライブラリTorch-Structを紹介する。
Torch-Structには,シンプルで柔軟な分散ベースのAPIを通じてアクセスされる,確率的構造の広範なコレクションが含まれている。
論文 参考訳(メタデータ) (2020-02-03T16:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。