論文の概要: Gym-preCICE: Reinforcement Learning Environments for Active Flow Control
- arxiv url: http://arxiv.org/abs/2305.02033v1
- Date: Wed, 3 May 2023 10:54:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-05-04 15:15:48.000789
- Title: Gym-preCICE: Reinforcement Learning Environments for Active Flow Control
- Title(参考訳): Gym-preCICE:アクティブフロー制御のための強化学習環境
- Authors: Mosayeb Shams, Ahmed H. Elsheikh
- Abstract要約: Gym-preCICEはPythonのアダプタで、Gymnasium (以前はOpenAI Gymとして知られていた) APIに完全に準拠している。
Gym-preCICEは、分割多重物理シミュレーションのためのオープンソースの結合ライブラリであるPreCICEを利用する。
このフレームワークは、リアルな物理ベースのシミュレーションツールボックスとRLアルゴリズムをシームレスに統合する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active flow control (AFC) involves manipulating fluid flow over time to
achieve a desired performance or efficiency. AFC, as a sequential optimisation
task, can benefit from utilising Reinforcement Learning (RL) for dynamic
optimisation. In this work, we introduce Gym-preCICE, a Python adapter fully
compliant with Gymnasium (formerly known as OpenAI Gym) API to facilitate
designing and developing RL environments for single- and multi-physics AFC
applications. In an actor-environment setting, Gym-preCICE takes advantage of
preCICE, an open-source coupling library for partitioned multi-physics
simulations, to handle information exchange between a controller (actor) and an
AFC simulation environment. The developed framework results in a seamless
non-invasive integration of realistic physics-based simulation toolboxes with
RL algorithms. Gym-preCICE provides a framework for designing RL environments
to model AFC tasks, as well as a playground for applying RL algorithms in
various AFC-related engineering applications.
- Abstract(参考訳): アクティブフロー制御(AFC)は、望ましい性能や効率を達成するために、時間とともに流体の流れを操作する。
AFCは、逐次最適化タスクとして、動的最適化のために強化学習(RL)を利用する利点がある。
本稿では,Gymnasium (旧名称はOpenAI Gym) APIに完全準拠したPythonアダプタであるGym-preCICEを紹介する。
アクタ環境設定において、gym-preciceは、分割マルチフィジカルシミュレーションのためのオープンソースの結合ライブラリであるpreciceを利用して、コントローラ(アクタ)とafcシミュレーション環境間の情報交換を処理する。
このフレームワークは、リアルな物理ベースのシミュレーションツールボックスとrlアルゴリズムをシームレスに非侵襲的に統合する。
Gym-preCICEは、AFCタスクをモデル化するためのRL環境を設計するためのフレームワークと、さまざまなAFC関連エンジニアリングアプリケーションにRLアルゴリズムを適用するための遊び場を提供する。
関連論文リスト
- Plug-and-Play Benchmarking of Reinforcement Learning Algorithms for Large-Scale Flow Control [61.155940786140455]
強化学習(RL)は,アクティブフロー制御(AFC)において有望な結果を示した。
現在のAFCベンチマークは、外部計算流体力学(CFD)の解法に依存しており、完全には微分不可能であり、3Dとマルチエージェントのサポートが限られている。
AFCにおけるRLのための最初のスタンドアロンで完全に差別化可能なベンチマークスイートであるFluidGymを紹介する。
論文 参考訳(メタデータ) (2026-01-21T14:13:44Z) - Flexible Manufacturing Systems Intralogistics: Dynamic Optimization of AGVs and Tool Sharing Using Coloured-Timed Petri Nets and Actor-Critic RL with Actions Masking [0.0]
本稿では,自動誘導車両(AGV)とツール共有システムの同時統合により,新たな複雑さを取り入れた従来型のジョブショップスケジューリング問題を推し進める。
色付き時間ペトリネット(CTPN)とアクター批判モデルに基づく強化学習(MBRL)を組み合わせた新しいアプローチを提案する。
提案手法は,小規模の公開ベンチマークと,Tallardベンチマークにインスパイアされた大規模ベンチマークを用いて評価した。
論文 参考訳(メタデータ) (2026-01-08T12:37:02Z) - DiRL: An Efficient Post-Training Framework for Diffusion Language Models [54.405206032785706]
Diffusion Language Models (dLLMs) はAuto-Regressive(AR)モデルに代わる有望な代替品として登場した。
既存の手法は、訓練と推論の間の計算の非効率性と客観的なミスマッチに悩まされている。
我々は,FlexAttention-accelerated blockwise trainingとLMDeploy-timized inferenceを密接に統合した,効率的なポストトレーニングフレームワークであるDiRLを紹介した。
論文 参考訳(メタデータ) (2025-12-23T08:33:19Z) - Simulating Environments with Reasoning Models for Agent Training [55.98861707136674]
トレーニング用の起動環境の構築は重く、脆く、進捗を制限します。
我々はSimia-SFTとSimia-RLの2つのフレームワークを提案する。
Simia-SFTとSimia-RLは、環境工学を使わずにスケーラブルなエージェントトレーニングを可能にする。
論文 参考訳(メタデータ) (2025-11-03T18:29:57Z) - Gym-TORAX: Open-source software for integrating RL with plasma control simulators [1.226598527858578]
Gym-TORAXは、強化学習環境の実装を可能にするPythonパッケージである。
Gym-TORAXは、プラズマ力学をシミュレートするためのTORAXをラップする体育館環境を作成する。
現在のバージョンでは、国際熱核実験炉(ITER)の上昇シナリオに基づいて、1つの環境が容易に利用可能である。
論文 参考訳(メタデータ) (2025-10-13T11:16:25Z) - GEM: A Gym for Agentic LLMs [88.36970707762424]
General Experience Maker (GEM) は、大規模言語モデル(LLM)の時代に設計されたオープンソースの環境シミュレータである。
GEMは、高スループットのための非同期ベクトル化実行を含む環境エージェントインタフェースの標準化されたフレームワークを提供する。
GEMを用いてPPO,GRPO,REINFORCEのアップル・ツー・アップル・ベンチマークを行い,アルゴリズム設計に光を当てる。
論文 参考訳(メタデータ) (2025-10-01T15:55:57Z) - CollaPipe: Adaptive Segment-Optimized Pipeline Parallelism for Collaborative LLM Training in Heterogeneous Edge Networks [57.95170323315603]
CollaPipeは、コラボレーティブパイプライン並列性とフェデレーションアグリゲーションを統合し、自己進化型ネットワークをサポートする分散学習フレームワークである。
CollaPipeでは、エンコーダ部分は可変サイズのセグメントに適応的に分割され、パイプライン並列トレーニングのためにモバイルデバイスにデプロイされ、デコーダは生成タスクを処理するためにエッジサーバにデプロイされる。
トレーニング効率を向上させるために,モデルセグメント,マイクロバッチ,帯域幅,送信電力を適応的に割り当てる共同最適化問題を定式化する。
論文 参考訳(メタデータ) (2025-09-24T07:54:01Z) - Genie Envisioner: A Unified World Foundation Platform for Robotic Manipulation [65.30763239365928]
我々は,ロボット操作のための統一世界基盤プラットフォームであるGenie Envisioner(GE)を紹介する。
GEは、ポリシー学習、評価、シミュレーションを単一のビデオ生成フレームワークに統合する。
論文 参考訳(メタデータ) (2025-08-07T17:59:44Z) - Ring-lite: Scalable Reasoning via C3PO-Stabilized Reinforcement Learning for LLMs [51.21041884010009]
Ring-liteは、強化学習(RL)により最適化されたMixture-of-Experts(MoE)ベースの大規模言語モデルである
我々のアプローチは、挑戦的なベンチマーク上でのSOTA(State-of-the-art)の小規模推論モデルの性能と一致する。
論文 参考訳(メタデータ) (2025-06-17T17:12:34Z) - A General Infrastructure and Workflow for Quadrotor Deep Reinforcement Learning and Reality Deployment [48.90852123901697]
本稿では, エンドツーエンドの深層強化学習(DRL)ポリシーを四元数へシームレスに移行できるプラットフォームを提案する。
本プラットフォームは, ホバリング, 動的障害物回避, 軌道追尾, 気球打上げ, 未知環境における計画など, 多様な環境を提供する。
論文 参考訳(メタデータ) (2025-04-21T14:25:23Z) - Optimisation of the Accelerator Control by Reinforcement Learning: A Simulation-Based Approach [0.615163395430594]
本研究では,Reinforcement Learning(RL)と統合されたシミュレーションベースのフレームワークの構築を目的とする。
シミュレーションバックエンドとして textttElegant を用い,RL アルゴリズムとアクセルシミュレーションの相互作用を簡略化する Python ラッパーを開発した。
提案したRLフレームワークは物理学者のコパイロットとして機能し,ビームライン性能の向上,チューニング時間短縮,運用効率の向上など,インテリジェントな提案を行う。
論文 参考訳(メタデータ) (2025-03-12T16:57:52Z) - AutoHete: An Automatic and Efficient Heterogeneous Training System for LLMs [68.99086112477565]
トランスフォーマーベースの大規模言語モデル(LLM)は、シーケンスモデリングやテキスト生成において例外的な機能を示した。
既存の異種トレーニング手法は、トレーニング可能なモデルの規模を大幅に拡大するが、かなりの通信オーバーヘッドとCPUワークロードを導入している。
本稿では,シングルGPU環境とマルチGPU環境の両方に互換性のある,自動的で効率的なヘテロジニアストレーニングシステムであるAutoHeteを提案する。
論文 参考訳(メタデータ) (2025-02-27T14:46:22Z) - SINERGYM -- A virtual testbed for building energy optimization with Reinforcement Learning [40.71019623757305]
本稿では、大規模ビルディングシミュレーション、データ収集、継続的制御、実験監視のためのオープンソースのPythonベースの仮想テストベッドであるSinergymについて述べる。
論文 参考訳(メタデータ) (2024-12-11T11:09:13Z) - A Multi-Agent Reinforcement Learning Testbed for Cognitive Radio Applications [0.48182159227299676]
RFRL(Radio Frequency Reinforcement Learning)は、将来の無線通信システムにおいて重要な役割を果たす。
本稿では,RFRL Gym環境の更新について概説する。
論文 参考訳(メタデータ) (2024-10-28T20:45:52Z) - Enhancing Spectrum Efficiency in 6G Satellite Networks: A GAIL-Powered Policy Learning via Asynchronous Federated Inverse Reinforcement Learning [67.95280175998792]
ビームフォーミング,スペクトルアロケーション,リモートユーザ機器(RUE)アソシエイトを最適化するために,GAILを利用した新しいポリシー学習手法を提案する。
手動チューニングなしで報酬関数を自動的に学習するために、逆RL(IRL)を用いる。
提案手法は従来のRL手法よりも優れており,コンバージェンスと報酬値の14.6%の改善が達成されている。
論文 参考訳(メタデータ) (2024-09-27T13:05:02Z) - Flextron: Many-in-One Flexible Large Language Model [85.93260172698398]
我々は,フレキシブルモデル展開をサポートするネットワークアーキテクチャとポストトレーニングモデル最適化フレームワークであるFlextronを紹介する。
本稿では,既存の学習用LDMをFlextronモデルに変換するための,サンプル効率のよいトレーニング手法と関連するルーティングアルゴリズムを提案する。
我々は、複数のエンドツーエンドトレーニングされた変種や他の最先端の弾性ネットワークよりも優れた性能を示し、これらは全て、オリジナルの事前訓練と比較してわずか7.63%のトークンを消費する単一の事前訓練ランで実現している。
論文 参考訳(メタデータ) (2024-06-11T01:16:10Z) - Orchestration of Emulator Assisted Mobile Edge Tuning for AI Foundation
Models: A Multi-Agent Deep Reinforcement Learning Approach [10.47302625959368]
我々は,モバイルエッジコンピューティングと基礎モデルを統合した画期的なパラダイムを提示する。
私たちのアプローチの中心はイノベーティブなEmulator-Adapterアーキテクチャであり、基礎モデルを2つの凝集モジュールに分割する。
本稿では,分散環境におけるEmulator-Adapter構造のニーズに合わせて微調整された高度なリソース割り当て機構を提案する。
論文 参考訳(メタデータ) (2023-10-26T15:47:51Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - Karolos: An Open-Source Reinforcement Learning Framework for Robot-Task
Environments [0.3867363075280544]
強化学習(RL)研究において、シミュレーションはアルゴリズム間のベンチマークを可能にする。
本稿では,ロボット応用のためのフレームワークであるKarolosを紹介する。
コードはオープンソースでGitHubに公開されており、ロボット工学におけるRLアプリケーションの研究を促進することを目的としている。
論文 参考訳(メタデータ) (2022-12-01T23:14:02Z) - CaiRL: A High-Performance Reinforcement Learning Environment Toolkit [9.432068833600884]
CaiRL Environment Toolkitは、学習エージェントをトレーニングするための効率的で互換性があり、持続可能な代替手段である。
古典的制御ベンチマークにおけるCaiRLの有効性を実証し,実行速度をOpenAI Gymと比較した。
論文 参考訳(メタデータ) (2022-10-03T21:24:04Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z) - PlasticineLab: A Soft-Body Manipulation Benchmark with Differentiable
Physics [89.81550748680245]
PasticineLabと呼ばれる新しい微分可能な物理ベンチマークを導入する。
各タスクにおいて、エージェントはマニピュレータを使用して、プラスチックを所望の構成に変形させる。
本稿では,既存の強化学習(RL)手法と勾配に基づく手法について評価する。
論文 参考訳(メタデータ) (2021-04-07T17:59:23Z) - Deluca -- A Differentiable Control Library: Environments, Methods, and
Benchmarking [52.44199258132215]
我々は、微分可能な物理学とロボティクス環境のオープンソースライブラリを提示する。
ライブラリには,OpenAI Gymの古典的なコントロール設定など,いくつかのポピュラーな環境がある。
ライブラリを使用して得られた新しい科学的結果のいくつかのユースケースを提供します。
論文 参考訳(メタデータ) (2021-02-19T15:06:47Z) - Sim-Env: Decoupling OpenAI Gym Environments from Simulation Models [0.0]
強化学習(RL)は、AI研究の最も活発な分野の1つです。
開発方法論はまだ遅れており、RLアプリケーションの開発を促進するための標準APIが不足している。
多目的エージェントベースのモデルと派生した単一目的強化学習環境の分離開発と保守のためのワークフローとツールを提示する。
論文 参考訳(メタデータ) (2021-02-19T09:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。