論文の概要: Gym-preCICE: Reinforcement Learning Environments for Active Flow Control
- arxiv url: http://arxiv.org/abs/2305.02033v1
- Date: Wed, 3 May 2023 10:54:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 15:15:48.000789
- Title: Gym-preCICE: Reinforcement Learning Environments for Active Flow Control
- Title(参考訳): Gym-preCICE:アクティブフロー制御のための強化学習環境
- Authors: Mosayeb Shams, Ahmed H. Elsheikh
- Abstract要約: Gym-preCICEはPythonのアダプタで、Gymnasium (以前はOpenAI Gymとして知られていた) APIに完全に準拠している。
Gym-preCICEは、分割多重物理シミュレーションのためのオープンソースの結合ライブラリであるPreCICEを利用する。
このフレームワークは、リアルな物理ベースのシミュレーションツールボックスとRLアルゴリズムをシームレスに統合する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active flow control (AFC) involves manipulating fluid flow over time to
achieve a desired performance or efficiency. AFC, as a sequential optimisation
task, can benefit from utilising Reinforcement Learning (RL) for dynamic
optimisation. In this work, we introduce Gym-preCICE, a Python adapter fully
compliant with Gymnasium (formerly known as OpenAI Gym) API to facilitate
designing and developing RL environments for single- and multi-physics AFC
applications. In an actor-environment setting, Gym-preCICE takes advantage of
preCICE, an open-source coupling library for partitioned multi-physics
simulations, to handle information exchange between a controller (actor) and an
AFC simulation environment. The developed framework results in a seamless
non-invasive integration of realistic physics-based simulation toolboxes with
RL algorithms. Gym-preCICE provides a framework for designing RL environments
to model AFC tasks, as well as a playground for applying RL algorithms in
various AFC-related engineering applications.
- Abstract(参考訳): アクティブフロー制御(AFC)は、望ましい性能や効率を達成するために、時間とともに流体の流れを操作する。
AFCは、逐次最適化タスクとして、動的最適化のために強化学習(RL)を利用する利点がある。
本稿では,Gymnasium (旧名称はOpenAI Gym) APIに完全準拠したPythonアダプタであるGym-preCICEを紹介する。
アクタ環境設定において、gym-preciceは、分割マルチフィジカルシミュレーションのためのオープンソースの結合ライブラリであるpreciceを利用して、コントローラ(アクタ)とafcシミュレーション環境間の情報交換を処理する。
このフレームワークは、リアルな物理ベースのシミュレーションツールボックスとrlアルゴリズムをシームレスに非侵襲的に統合する。
Gym-preCICEは、AFCタスクをモデル化するためのRL環境を設計するためのフレームワークと、さまざまなAFC関連エンジニアリングアプリケーションにRLアルゴリズムを適用するための遊び場を提供する。
関連論文リスト
- Orchestration of Emulator Assisted Mobile Edge Tuning for AI Foundation
Models: A Multi-Agent Deep Reinforcement Learning Approach [10.47302625959368]
我々は,モバイルエッジコンピューティングと基礎モデルを統合した画期的なパラダイムを提示する。
私たちのアプローチの中心はイノベーティブなEmulator-Adapterアーキテクチャであり、基礎モデルを2つの凝集モジュールに分割する。
本稿では,分散環境におけるEmulator-Adapter構造のニーズに合わせて微調整された高度なリソース割り当て機構を提案する。
論文 参考訳(メタデータ) (2023-10-26T15:47:51Z) - SDGym: Low-Code Reinforcement Learning Environments using System
Dynamics Models [0.0]
SDGymはOpenAI Gymフレームワーク上に構築されたローコードライブラリで、カスタムRL環境の生成を可能にする。
本稿では,電気自動車導入問題のSDモデルを用いて,SDGym環境の性能を実証する。
SDGymをオープンソース化することで、さらなる研究を活性化し、SDおよびRLコミュニティ全体での採用を促進することを目指している。
論文 参考訳(メタデータ) (2023-10-19T05:56:25Z) - Octopus: Embodied Vision-Language Programmer from Environmental Feedback [59.772904419928054]
大規模視覚言語モデル (VLM) はマルチモーダル認識と推論において大きな進歩を遂げた。
本稿では,エージェントの視覚とテキストタスクの目的を正確に解読する新しいVLMであるOctopusを紹介する。
我々の設計では、シミュレーターの日常的な雑用から複雑なビデオゲームの高度なインタラクションまで、エージェントは幅広いタスクを十分に扱えるようにしている。
論文 参考訳(メタデータ) (2023-10-12T17:59:58Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - Karolos: An Open-Source Reinforcement Learning Framework for Robot-Task
Environments [0.3867363075280544]
強化学習(RL)研究において、シミュレーションはアルゴリズム間のベンチマークを可能にする。
本稿では,ロボット応用のためのフレームワークであるKarolosを紹介する。
コードはオープンソースでGitHubに公開されており、ロボット工学におけるRLアプリケーションの研究を促進することを目的としている。
論文 参考訳(メタデータ) (2022-12-01T23:14:02Z) - CaiRL: A High-Performance Reinforcement Learning Environment Toolkit [9.432068833600884]
CaiRL Environment Toolkitは、学習エージェントをトレーニングするための効率的で互換性があり、持続可能な代替手段である。
古典的制御ベンチマークにおけるCaiRLの有効性を実証し,実行速度をOpenAI Gymと比較した。
論文 参考訳(メタデータ) (2022-10-03T21:24:04Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z) - PlasticineLab: A Soft-Body Manipulation Benchmark with Differentiable
Physics [89.81550748680245]
PasticineLabと呼ばれる新しい微分可能な物理ベンチマークを導入する。
各タスクにおいて、エージェントはマニピュレータを使用して、プラスチックを所望の構成に変形させる。
本稿では,既存の強化学習(RL)手法と勾配に基づく手法について評価する。
論文 参考訳(メタデータ) (2021-04-07T17:59:23Z) - Deluca -- A Differentiable Control Library: Environments, Methods, and
Benchmarking [52.44199258132215]
我々は、微分可能な物理学とロボティクス環境のオープンソースライブラリを提示する。
ライブラリには,OpenAI Gymの古典的なコントロール設定など,いくつかのポピュラーな環境がある。
ライブラリを使用して得られた新しい科学的結果のいくつかのユースケースを提供します。
論文 参考訳(メタデータ) (2021-02-19T15:06:47Z) - Sim-Env: Decoupling OpenAI Gym Environments from Simulation Models [0.0]
強化学習(RL)は、AI研究の最も活発な分野の1つです。
開発方法論はまだ遅れており、RLアプリケーションの開発を促進するための標準APIが不足している。
多目的エージェントベースのモデルと派生した単一目的強化学習環境の分離開発と保守のためのワークフローとツールを提示する。
論文 参考訳(メタデータ) (2021-02-19T09:25:21Z) - To Talk or to Work: Flexible Communication Compression for Energy
Efficient Federated Learning over Heterogeneous Mobile Edge Devices [78.38046945665538]
巨大なモバイルエッジデバイス上でのフェデレーション学習(FL)は、多数のインテリジェントなモバイルアプリケーションのための新たな地平を開く。
FLは、定期的なグローバル同期と継続的なローカルトレーニングにより、参加するデバイスに膨大な通信と計算負荷を課す。
フレキシブルな通信圧縮を可能にする収束保証FLアルゴリズムを開発。
論文 参考訳(メタデータ) (2020-12-22T02:54:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。