論文の概要: HydroGym: A Reinforcement Learning Platform for Fluid Dynamics
- arxiv url: http://arxiv.org/abs/2512.17534v1
- Date: Fri, 19 Dec 2025 12:58:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.387868
- Title: HydroGym: A Reinforcement Learning Platform for Fluid Dynamics
- Title(参考訳): HydroGym: 流体力学の強化学習プラットフォーム
- Authors: Christian Lagemann, Sajeda Mokbel, Miro Gondrum, Mario Rüttgers, Jared Callaham, Ludger Paehler, Samuel Ahnert, Nicholas Zolman, Kai Lagemann, Nikolaus Adams, Matthias Meinke, Wolfgang Schröder, Jean-Christophe Loiseau, Esther Lagemann, Steven L. Brunton,
- Abstract要約: HydroGymは、フロー制御研究のためのソルバ非依存のRLプラットフォームである。
我々のプラットフォームは、標準層流から複雑な3次元乱流シナリオにまたがる42の検証環境を含む。
- 参考スコア(独自算出の注目度): 2.7789211666404228
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modeling and controlling fluid flows is critical for several fields of science and engineering, including transportation, energy, and medicine. Effective flow control can lead to, e.g., lift increase, drag reduction, mixing enhancement, and noise reduction. However, controlling a fluid faces several significant challenges, including high-dimensional, nonlinear, and multiscale interactions in space and time. Reinforcement learning (RL) has recently shown great success in complex domains, such as robotics and protein folding, but its application to flow control is hindered by a lack of standardized benchmark platforms and the computational demands of fluid simulations. To address these challenges, we introduce HydroGym, a solver-independent RL platform for flow control research. HydroGym integrates sophisticated flow control benchmarks, scalable runtime infrastructure, and state-of-the-art RL algorithms. Our platform includes 42 validated environments spanning from canonical laminar flows to complex three-dimensional turbulent scenarios, validated over a wide range of Reynolds numbers. We provide non-differentiable solvers for traditional RL and differentiable solvers that dramatically improve sample efficiency through gradient-enhanced optimization. Comprehensive evaluation reveals that RL agents consistently discover robust control principles across configurations, such as boundary layer manipulation, acoustic feedback disruption, and wake reorganization. Transfer learning studies demonstrate that controllers learned at one Reynolds number or geometry adapt efficiently to new conditions, requiring approximately 50% fewer training episodes. The HydroGym platform is highly extensible and scalable, providing a framework for researchers in fluid dynamics, machine learning, and control to add environments, surrogate models, and control algorithms to advance science and technology.
- Abstract(参考訳): 流体の流れのモデリングと制御は、輸送、エネルギー、医学を含む科学と工学の分野において重要である。
効率的なフロー制御は、例えば、リフトの増加、ドラッグの低減、ミキシングの強化、ノイズの低減につながる。
しかし、流体の制御は、空間と時間における高次元、非線形、およびマルチスケールの相互作用を含むいくつかの重要な課題に直面している。
強化学習(Reinforcement Learning, RL)はロボット工学やタンパク質の折り畳みといった複雑な領域で成功しているが、そのフロー制御への応用は、標準化されたベンチマークプラットフォームの欠如と流体シミュレーションの計算要求によって妨げられている。
これらの課題に対処するために,フロー制御研究のための解法に依存しないRLプラットフォームであるHydroGymを紹介する。
HydroGymは洗練されたフロー制御ベンチマーク、スケーラブルなランタイムインフラストラクチャ、最先端のRLアルゴリズムを統合している。
我々のプラットフォームは、標準層流から複雑な3次元乱流シナリオにまたがる42の検証環境を含み、幅広いレイノルズ数で検証されている。
従来のRLおよび微分可能解法に対して,勾配強調最適化による試料効率を劇的に向上させる非微分可能解法を提案する。
包括的評価により、RLエージェントは境界層操作、音響フィードバックの破壊、覚醒再編成など、構成間の堅牢な制御原理を一貫して発見することがわかった。
トランスファーラーニング研究は、あるレイノルズ数や幾何で学んだコントローラーが新しい条件に効率的に適応し、トレーニングエピソードを約50%減らすことを示した。
HydroGymプラットフォームは非常に拡張性があり、スケーラブルで、流体力学、機械学習、環境の追加、サロゲートモデル、科学と技術の進歩のためのアルゴリズム制御の研究者のためのフレームワークを提供する。
関連論文リスト
- Physics-informed Neural-operator Predictive Control for Drag Reduction in Turbulent Flows [109.99020160824553]
乱流のモデリングと制御のための効率的な深部強化学習フレームワークを提案する。
予測制御(PC)のためのモデルベースRLであり、乱流制御のためのポリシとオブザーバモデルの両方を共同で学習する。
その結果, PINO-PCは, バルク速度レイノルズ数15,000で39.0%の抗力低下を達成し, 従来の流体制御法を32%以上上回った。
論文 参考訳(メタデータ) (2025-10-03T00:18:26Z) - PICT -- A Differentiable, GPU-Accelerated Multi-Block PISO Solver for Simulation-Coupled Learning Tasks in Fluid Dynamics [62.93137406343609]
我々はPyTorchで符号化された可変圧単純化解器であるPICTをGPU(Graphics-Processing-unit)をサポートした流体シミュレータとして提案する。
まず,様々なベンチマークにおいて,フォワードシミュレーションと導出した勾配の精度を検証した。
2次元, 3次元の複雑な乱流モデルの学習には, 解法によって得られる勾配が有効であることを示す。
論文 参考訳(メタデータ) (2025-05-22T17:55:10Z) - AI-Enhanced Automatic Design of Efficient Underwater Gliders [60.45821679800442]
自動設計フレームワークの構築は、グライダー形状を表現する複雑さと、複雑な固体-流体相互作用をモデル化する際の計算コストが高いため、困難である。
非自明な船体形状の水中ロボットを作れるようにすることで、これらの制限を克服するAI強化型自動計算フレームワークを導入する。
提案手法は, 形状と制御信号の両面を協調的に最適化するアルゴリズムで, 低次幾何表現と微分可能なニューラルネット型流体代理モデルを用いる。
論文 参考訳(メタデータ) (2025-04-30T23:55:44Z) - Multi-fidelity Reinforcement Learning Control for Complex Dynamical Systems [42.2790464348673]
複雑なシステムの不安定性を制御するための多要素強化学習フレームワークを提案する。
提案手法が物理学における2つの複雑な力学に与える影響を実証する。
論文 参考訳(メタデータ) (2025-04-08T00:50:15Z) - SINDy-RL: Interpretable and Efficient Model-Based Reinforcement Learning [5.036739921794781]
SINDy-RLは、SINDyとDRLを組み合わせて、ダイナミックスモデル、報酬関数、制御ポリシーの効率的、解釈可能、信頼性の高い表現を作成するためのフレームワークである。
本稿では,ベンチマーク制御環境とフロー制御問題に対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-03-14T05:17:39Z) - Real-World Fluid Directed Rigid Body Control via Deep Reinforcement
Learning [7.714620721734689]
ボックス・オ・フロー(Box o Flows)は、動的実世界のシナリオにおいてRLアルゴリズムを体系的に評価する実験的な制御システムである。
モデルフリーなRLアルゴリズムは, 単純な報酬仕様を用いて, 様々な複雑な振る舞いを合成できることを示す。
この予備的な研究から得られた洞察とBox o Flowsのようなシステムの可用性は、体系的なRLアルゴリズムの開発を支援するものだと考えています。
論文 参考訳(メタデータ) (2024-02-08T23:35:03Z) - How to Control Hydrodynamic Force on Fluidic Pinball via Deep
Reinforcement Learning [3.1635451288803638]
流体ピンボールの流体力を制御するためのDRLに基づくリアルタイムフィードバック戦略を提案する。
報酬関数を適切に設計し、歴史的観測を符号化することにより、DRLに基づく制御が合理的かつ有効な制御決定を行うことを示した。
これらの結果の1つは、力追跡プロセスの意思決定と物理的メカニズムに基づいて光を放つことができる機械学習モデルによって分析された。
論文 参考訳(メタデータ) (2023-04-23T03:39:50Z) - FluidLab: A Differentiable Environment for Benchmarking Complex Fluid
Manipulation [80.63838153351804]
複雑な流体力学を含む多種多様な操作タスクを備えたシミュレーション環境であるFluidLabを紹介する。
私たちのプラットフォームの中心には、GPU加速シミュレーションと勾配計算を提供する、完全に微分可能な物理シミュレータがあります。
微分可能物理学と組み合わせたいくつかのドメイン固有最適化スキームを提案する。
論文 参考訳(メタデータ) (2023-03-04T07:24:22Z) - Deep Reinforcement Learning for Computational Fluid Dynamics on HPC
Systems [17.10464381844892]
強化学習(Reinforcement Learning, RL)は、動的システムの文脈における制御戦略の考案に非常に適している。
近年の研究では、RL強化計算流体力学(CFD)の解法が最先端技術を超えることが示唆されている。
我々は、機械学習とHPCシステム上の最新のCFDソルバ間のギャップを埋めるスケーラブルなRLフレームワークとしてRelexiを提示する。
論文 参考訳(メタデータ) (2022-05-13T08:21:18Z) - Comparative analysis of machine learning methods for active flow control [60.53767050487434]
遺伝的プログラミング(GP)と強化学習(RL)はフロー制御において人気を集めている。
この研究は2つの比較分析を行い、地球規模の最適化手法に対して最も代表的なアルゴリズムのいくつかをベンチマークする。
論文 参考訳(メタデータ) (2022-02-23T18:11:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。