論文の概要: Gym-preCICE: Reinforcement Learning Environments for Active Flow Control
- arxiv url: http://arxiv.org/abs/2305.02033v1
- Date: Wed, 3 May 2023 10:54:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 15:15:48.000789
- Title: Gym-preCICE: Reinforcement Learning Environments for Active Flow Control
- Title(参考訳): Gym-preCICE:アクティブフロー制御のための強化学習環境
- Authors: Mosayeb Shams, Ahmed H. Elsheikh
- Abstract要約: Gym-preCICEはPythonのアダプタで、Gymnasium (以前はOpenAI Gymとして知られていた) APIに完全に準拠している。
Gym-preCICEは、分割多重物理シミュレーションのためのオープンソースの結合ライブラリであるPreCICEを利用する。
このフレームワークは、リアルな物理ベースのシミュレーションツールボックスとRLアルゴリズムをシームレスに統合する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active flow control (AFC) involves manipulating fluid flow over time to
achieve a desired performance or efficiency. AFC, as a sequential optimisation
task, can benefit from utilising Reinforcement Learning (RL) for dynamic
optimisation. In this work, we introduce Gym-preCICE, a Python adapter fully
compliant with Gymnasium (formerly known as OpenAI Gym) API to facilitate
designing and developing RL environments for single- and multi-physics AFC
applications. In an actor-environment setting, Gym-preCICE takes advantage of
preCICE, an open-source coupling library for partitioned multi-physics
simulations, to handle information exchange between a controller (actor) and an
AFC simulation environment. The developed framework results in a seamless
non-invasive integration of realistic physics-based simulation toolboxes with
RL algorithms. Gym-preCICE provides a framework for designing RL environments
to model AFC tasks, as well as a playground for applying RL algorithms in
various AFC-related engineering applications.
- Abstract(参考訳): アクティブフロー制御(AFC)は、望ましい性能や効率を達成するために、時間とともに流体の流れを操作する。
AFCは、逐次最適化タスクとして、動的最適化のために強化学習(RL)を利用する利点がある。
本稿では,Gymnasium (旧名称はOpenAI Gym) APIに完全準拠したPythonアダプタであるGym-preCICEを紹介する。
アクタ環境設定において、gym-preciceは、分割マルチフィジカルシミュレーションのためのオープンソースの結合ライブラリであるpreciceを利用して、コントローラ(アクタ)とafcシミュレーション環境間の情報交換を処理する。
このフレームワークは、リアルな物理ベースのシミュレーションツールボックスとrlアルゴリズムをシームレスに非侵襲的に統合する。
Gym-preCICEは、AFCタスクをモデル化するためのRL環境を設計するためのフレームワークと、さまざまなAFC関連エンジニアリングアプリケーションにRLアルゴリズムを適用するための遊び場を提供する。
関連論文リスト
- A Multi-Agent Reinforcement Learning Testbed for Cognitive Radio Applications [0.48182159227299676]
RFRL(Radio Frequency Reinforcement Learning)は、将来の無線通信システムにおいて重要な役割を果たす。
本稿では,RFRL Gym環境の更新について概説する。
論文 参考訳(メタデータ) (2024-10-28T20:45:52Z) - Enhancing Spectrum Efficiency in 6G Satellite Networks: A GAIL-Powered Policy Learning via Asynchronous Federated Inverse Reinforcement Learning [67.95280175998792]
ビームフォーミング,スペクトルアロケーション,リモートユーザ機器(RUE)アソシエイトを最適化するために,GAILを利用した新しいポリシー学習手法を提案する。
手動チューニングなしで報酬関数を自動的に学習するために、逆RL(IRL)を用いる。
提案手法は従来のRL手法よりも優れており,コンバージェンスと報酬値の14.6%の改善が達成されている。
論文 参考訳(メタデータ) (2024-09-27T13:05:02Z) - Flextron: Many-in-One Flexible Large Language Model [85.93260172698398]
我々は,フレキシブルモデル展開をサポートするネットワークアーキテクチャとポストトレーニングモデル最適化フレームワークであるFlextronを紹介する。
本稿では,既存の学習用LDMをFlextronモデルに変換するための,サンプル効率のよいトレーニング手法と関連するルーティングアルゴリズムを提案する。
我々は、複数のエンドツーエンドトレーニングされた変種や他の最先端の弾性ネットワークよりも優れた性能を示し、これらは全て、オリジナルの事前訓練と比較してわずか7.63%のトークンを消費する単一の事前訓練ランで実現している。
論文 参考訳(メタデータ) (2024-06-11T01:16:10Z) - Orchestration of Emulator Assisted Mobile Edge Tuning for AI Foundation
Models: A Multi-Agent Deep Reinforcement Learning Approach [10.47302625959368]
我々は,モバイルエッジコンピューティングと基礎モデルを統合した画期的なパラダイムを提示する。
私たちのアプローチの中心はイノベーティブなEmulator-Adapterアーキテクチャであり、基礎モデルを2つの凝集モジュールに分割する。
本稿では,分散環境におけるEmulator-Adapter構造のニーズに合わせて微調整された高度なリソース割り当て機構を提案する。
論文 参考訳(メタデータ) (2023-10-26T15:47:51Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - Karolos: An Open-Source Reinforcement Learning Framework for Robot-Task
Environments [0.3867363075280544]
強化学習(RL)研究において、シミュレーションはアルゴリズム間のベンチマークを可能にする。
本稿では,ロボット応用のためのフレームワークであるKarolosを紹介する。
コードはオープンソースでGitHubに公開されており、ロボット工学におけるRLアプリケーションの研究を促進することを目的としている。
論文 参考訳(メタデータ) (2022-12-01T23:14:02Z) - CaiRL: A High-Performance Reinforcement Learning Environment Toolkit [9.432068833600884]
CaiRL Environment Toolkitは、学習エージェントをトレーニングするための効率的で互換性があり、持続可能な代替手段である。
古典的制御ベンチマークにおけるCaiRLの有効性を実証し,実行速度をOpenAI Gymと比較した。
論文 参考訳(メタデータ) (2022-10-03T21:24:04Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z) - PlasticineLab: A Soft-Body Manipulation Benchmark with Differentiable
Physics [89.81550748680245]
PasticineLabと呼ばれる新しい微分可能な物理ベンチマークを導入する。
各タスクにおいて、エージェントはマニピュレータを使用して、プラスチックを所望の構成に変形させる。
本稿では,既存の強化学習(RL)手法と勾配に基づく手法について評価する。
論文 参考訳(メタデータ) (2021-04-07T17:59:23Z) - Deluca -- A Differentiable Control Library: Environments, Methods, and
Benchmarking [52.44199258132215]
我々は、微分可能な物理学とロボティクス環境のオープンソースライブラリを提示する。
ライブラリには,OpenAI Gymの古典的なコントロール設定など,いくつかのポピュラーな環境がある。
ライブラリを使用して得られた新しい科学的結果のいくつかのユースケースを提供します。
論文 参考訳(メタデータ) (2021-02-19T15:06:47Z) - Sim-Env: Decoupling OpenAI Gym Environments from Simulation Models [0.0]
強化学習(RL)は、AI研究の最も活発な分野の1つです。
開発方法論はまだ遅れており、RLアプリケーションの開発を促進するための標準APIが不足している。
多目的エージェントベースのモデルと派生した単一目的強化学習環境の分離開発と保守のためのワークフローとツールを提示する。
論文 参考訳(メタデータ) (2021-02-19T09:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。