論文の概要: Plug-and-Play Benchmarking of Reinforcement Learning Algorithms for Large-Scale Flow Control
- arxiv url: http://arxiv.org/abs/2601.15015v1
- Date: Wed, 21 Jan 2026 14:13:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.387927
- Title: Plug-and-Play Benchmarking of Reinforcement Learning Algorithms for Large-Scale Flow Control
- Title(参考訳): 大規模フロー制御のための強化学習アルゴリズムのプラグアンドプレイベンチマーク
- Authors: Jannis Becktepe, Aleksandra Franz, Nils Thuerey, Sebastian Peitz,
- Abstract要約: 強化学習(RL)は,アクティブフロー制御(AFC)において有望な結果を示した。
現在のAFCベンチマークは、外部計算流体力学(CFD)の解法に依存しており、完全には微分不可能であり、3Dとマルチエージェントのサポートが限られている。
AFCにおけるRLのための最初のスタンドアロンで完全に差別化可能なベンチマークスイートであるFluidGymを紹介する。
- 参考スコア(独自算出の注目度): 61.155940786140455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement learning (RL) has shown promising results in active flow control (AFC), yet progress in the field remains difficult to assess as existing studies rely on heterogeneous observation and actuation schemes, numerical setups, and evaluation protocols. Current AFC benchmarks attempt to address these issues but heavily rely on external computational fluid dynamics (CFD) solvers, are not fully differentiable, and provide limited 3D and multi-agent support. To overcome these limitations, we introduce FluidGym, the first standalone, fully differentiable benchmark suite for RL in AFC. Built entirely in PyTorch on top of the GPU-accelerated PICT solver, FluidGym runs in a single Python stack, requires no external CFD software, and provides standardized evaluation protocols. We present baseline results with PPO and SAC and release all environments, datasets, and trained models as public resources. FluidGym enables systematic comparison of control methods, establishes a scalable foundation for future research in learning-based flow control, and is available at https://github.com/safe-autonomous-systems/fluidgym.
- Abstract(参考訳): 強化学習 (Reinforcement Learning, RL) は, アクティブフロー制御 (AFC) において有望な結果を示しているが, 既往の研究は, 不均一な観測・アクチュエーター方式, 数値設定, 評価プロトコルに依存するため, 評価が難しい。
現在のAFCベンチマークはこれらの問題に対処しようとするが、外部計算流体力学(CFD)の解法に大きく依存しており、完全には微分不可能であり、限られた3Dおよびマルチエージェントのサポートを提供する。
これらの制限を克服するために、AFCにおけるRLのための最初のスタンドアロンで完全に差別化可能なベンチマークスイートであるFluidGymを紹介する。
GPUアクセラレーションされたPICTソルバ上にPyTorchで完全に構築されたFluidGymは、単一のPythonスタックで動作し、外部CFDソフトウェアを必要とせず、標準化された評価プロトコルを提供する。
PPOとSACでベースライン結果を示し、すべての環境、データセット、トレーニングされたモデルを公開リソースとしてリリースします。
FluidGymは、制御方法の体系的な比較を可能にし、学習ベースのフロー制御における将来の研究のためのスケーラブルな基盤を確立し、https://github.com/safe-autonomous-systems/fluidgymで利用可能である。
関連論文リスト
- HydroGym: A Reinforcement Learning Platform for Fluid Dynamics [2.7789211666404228]
HydroGymは、フロー制御研究のためのソルバ非依存のRLプラットフォームである。
我々のプラットフォームは、標準層流から複雑な3次元乱流シナリオにまたがる42の検証環境を含む。
論文 参考訳(メタデータ) (2025-12-19T12:58:06Z) - FedLAD: A Modular and Adaptive Testbed for Federated Log Anomaly Detection [13.452100730952479]
FedLADはFL制約下でのLADモデルのトレーニングと評価のための統合プラットフォームである。
さまざまなLADモデル、ベンチマークデータセット、アグリゲーション戦略のプラグインとプレイの統合をサポートする。
FedLADはFLフレームワークとLAD要件のギャップを埋め、将来の研究の確かな基盤を提供する。
論文 参考訳(メタデータ) (2025-12-09T06:15:53Z) - Iterative Refinement of Flow Policies in Probability Space for Online Reinforcement Learning [56.47948583452555]
固定ステップのEulerスキームによるフローマッチング推論プロセスの離散化は,最適輸送から変化するJordan-Kinderlehrer-Otto原理と整合する,というキーインサイトに基づいて,SWFP(Stepwise Flow Policy)フレームワークを紹介した。
SWFPは、大域的な流れを、プロキシメート分布間の小さな漸進的な変換の列に分解する。
この分解は、小さな流れブロックのカスケードを介して事前訓練された流れを微調整する効率的なアルゴリズムを導き、大きな利点をもたらす。
論文 参考訳(メタデータ) (2025-10-17T07:43:51Z) - PICT -- A Differentiable, GPU-Accelerated Multi-Block PISO Solver for Simulation-Coupled Learning Tasks in Fluid Dynamics [62.93137406343609]
我々はPyTorchで符号化された可変圧単純化解器であるPICTをGPU(Graphics-Processing-unit)をサポートした流体シミュレータとして提案する。
まず,様々なベンチマークにおいて,フォワードシミュレーションと導出した勾配の精度を検証した。
2次元, 3次元の複雑な乱流モデルの学習には, 解法によって得られる勾配が有効であることを示す。
論文 参考訳(メタデータ) (2025-05-22T17:55:10Z) - CL-DiffPhyCon: Closed-loop Diffusion Control of Complex Physical Systems [10.167080282182972]
物理系制御のための効率的な閉ループ拡散法(CL-DiffPhyCon)を提案する。
CL-DiffPhyConは、異なる物理時間ステップに非同期なdenoisingフレームワークを使用することで、システムからのリアルタイムフィードバックに条件付けられた制御信号を生成する。
CL-DiffPhyConを1次元バーガースの方程式制御と2次元非圧縮性流体制御の2つのタスクで評価した。
論文 参考訳(メタデータ) (2024-07-31T14:54:29Z) - Comparative analysis of machine learning methods for active flow control [60.53767050487434]
遺伝的プログラミング(GP)と強化学習(RL)はフロー制御において人気を集めている。
この研究は2つの比較分析を行い、地球規模の最適化手法に対して最も代表的なアルゴリズムのいくつかをベンチマークする。
論文 参考訳(メタデータ) (2022-02-23T18:11:19Z) - Single-step deep reinforcement learning for open-loop control of laminar
and turbulent flows [0.0]
本研究は,流体力学系の最適化と制御を支援するための深部強化学習(DRL)技術の能力を評価する。
原型ポリシー最適化(PPO)アルゴリズムの新たな"退化"バージョンを組み合わせることで、学習エピソード当たり1回だけシステムを最適化するニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-06-04T16:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。