論文の概要: How to Control Hydrodynamic Force on Fluidic Pinball via Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2304.11526v1
- Date: Sun, 23 Apr 2023 03:39:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 17:50:18.533034
- Title: How to Control Hydrodynamic Force on Fluidic Pinball via Deep
Reinforcement Learning
- Title(参考訳): 深層補強学習による流体ピンボールの流体力制御
- Authors: Haodong Feng, Yue Wang, Hui Xiang, Zhiyang Jin, Dixia Fan
- Abstract要約: 流体ピンボールの流体力を制御するためのDRLに基づくリアルタイムフィードバック戦略を提案する。
報酬関数を適切に設計し、歴史的観測を符号化することにより、DRLに基づく制御が合理的かつ有効な制御決定を行うことを示した。
これらの結果の1つは、力追跡プロセスの意思決定と物理的メカニズムに基づいて光を放つことができる機械学習モデルによって分析された。
- 参考スコア(独自算出の注目度): 3.1635451288803638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning (DRL) for fluidic pinball, three individually
rotating cylinders in the uniform flow arranged in an equilaterally triangular
configuration, can learn the efficient flow control strategies due to the
validity of self-learning and data-driven state estimation for complex fluid
dynamic problems. In this work, we present a DRL-based real-time feedback
strategy to control the hydrodynamic force on fluidic pinball, i.e., force
extremum and tracking, from cylinders' rotation. By adequately designing reward
functions and encoding historical observations, and after automatic learning of
thousands of iterations, the DRL-based control was shown to make reasonable and
valid control decisions in nonparametric control parameter space, which is
comparable to and even better than the optimal policy found through lengthy
brute-force searching. Subsequently, one of these results was analyzed by a
machine learning model that enabled us to shed light on the basis of
decision-making and physical mechanisms of the force tracking process. The
finding from this work can control hydrodynamic force on the operation of
fluidic pinball system and potentially pave the way for exploring efficient
active flow control strategies in other complex fluid dynamic problems.
- Abstract(参考訳): 混合流体力学問題に対する自己学習とデータ駆動状態推定の有効性から,一様流中の3つの個別回転シリンダを正三角形に配置した流体球用深層強化学習(drl)により,効率的な流れ制御戦略を学習できる。
本研究では, 液状ピンボールの流体力, すなわち, シリンダーの回転から最大力と追従力を制御するためのDRLに基づくリアルタイムフィードバック戦略を提案する。
報酬関数を適切に設計し、歴史的観察をエンコードし、何千回ものイテレーションの自動学習の後、drlベースの制御は、長いブルートフォース探索で見いだされた最適方針に匹敵する、非パラメトリック制御パラメータ空間において合理的かつ有効な制御決定を行うことが示された。
その後、これらの結果の1つは、力追跡プロセスの意思決定と物理的メカニズムに基づいて光を当てることができる機械学習モデルによって分析された。
この研究から得られた流体力学的力は、流体ピンボール系の動作を制御でき、他の複雑な流体力学問題における効率的なアクティブフロー制御戦略を探索する道を開く可能性がある。
関連論文リスト
- Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Asynchronous Parallel Reinforcement Learning for Optimizing Propulsive
Performance in Fin Ray Control [3.889677386753812]
魚のひれは、万能な移動を促進するために、魚のひれを固定した魚の高度な制御システムを構成する。
魚の移動のキネマティクスと流体力学の広範な研究にもかかわらず、フィン線運動における複雑な制御戦略はほとんど解明されていない。
本研究では,様々な推進性能目標に適した複雑なフィン線制御戦略を得るために,流体構造相互作用(FSI)環境と相互作用する最先端のオフポリチックDRLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-21T00:06:17Z) - Active flow control for three-dimensional cylinders through deep
reinforcement learning [0.0]
本稿では,複数のゼロネット・マス・フラックス合成ジェットを用いたアクティブフロー制御の初回成功例を示す。
ジェットは、ドラッグ係数を低減するために、そのスパンに沿って三次元のシリンダー上に配置される。
この手法は,計算流体力学解法とエージェントを結合した深層強化学習フレームワークに基づいている。
論文 参考訳(メタデータ) (2023-09-04T13:30:29Z) - RL + Model-based Control: Using On-demand Optimal Control to Learn Versatile Legged Locomotion [16.800984476447624]
本稿では,モデルに基づく最適制御と強化学習を組み合わせた制御フレームワークを提案する。
我々は、一連の実験を通じて、フレームワークの堅牢性と制御性を検証する。
本フレームワークは,多様な次元を持つロボットに対する制御ポリシーのトレーニングを,無力的に支援する。
論文 参考訳(メタデータ) (2023-05-29T01:33:55Z) - Real-Time Model-Free Deep Reinforcement Learning for Force Control of a
Series Elastic Actuator [56.11574814802912]
最先端のロボットアプリケーションは、歩行、揚力、操作などの複雑なタスクを達成するために、閉ループ力制御を備えた連続弾性アクチュエータ(SEAs)を使用する。
モデルフリーPID制御法はSEAの非線形性により不安定になりやすい。
深層強化学習は連続制御タスクに有効なモデルレス手法であることが証明されている。
論文 参考訳(メタデータ) (2023-04-11T00:51:47Z) - Turbulence control in plane Couette flow using low-dimensional neural
ODE-based models and deep reinforcement learning [0.0]
DManD-RL (data-driven manifold dynamics-RL) は,データ駆動型低次元モデルを生成する。
我々はRL制御エージェントを訓練し、数値シミュレーションで440倍のスピードアップを達成した。
エージェントは900時間以内の未確認DNSテストトラジェクトリの84%をラミナライズするポリシーを学習する。
論文 参考訳(メタデータ) (2023-01-28T05:47:10Z) - Unified Automatic Control of Vehicular Systems with Reinforcement
Learning [64.63619662693068]
本稿では,車載マイクロシミュレーションの合理化手法について述べる。
最小限の手動設計で高性能な制御戦略を発見する。
この研究は、波動緩和、交通信号、ランプ計測に類似した多くの創発的挙動を明らかにしている。
論文 参考訳(メタデータ) (2022-07-30T16:23:45Z) - Physics-Inspired Temporal Learning of Quadrotor Dynamics for Accurate
Model Predictive Trajectory Tracking [76.27433308688592]
クオーロタのシステムダイナミクスを正確にモデル化することは、アジャイル、安全、安定したナビゲーションを保証する上で非常に重要です。
本稿では,ロボットの経験から,四重項系の力学を純粋に学習するための新しい物理インスパイアされた時間畳み込みネットワーク(PI-TCN)を提案する。
提案手法は,スパース時間的畳み込みと高密度フィードフォワード接続の表現力を組み合わせて,正確なシステム予測を行う。
論文 参考訳(メタデータ) (2022-06-07T13:51:35Z) - Accelerated Policy Learning with Parallel Differentiable Simulation [59.665651562534755]
微分可能シミュレータと新しいポリシー学習アルゴリズム(SHAC)を提案する。
本アルゴリズムは,スムーズな批判機能により局所最小化の問題を軽減する。
現状のRLと微分可能なシミュレーションベースアルゴリズムと比較して,サンプル効率と壁面時間を大幅に改善した。
論文 参考訳(メタデータ) (2022-04-14T17:46:26Z) - Comparative analysis of machine learning methods for active flow control [60.53767050487434]
遺伝的プログラミング(GP)と強化学習(RL)はフロー制御において人気を集めている。
この研究は2つの比較分析を行い、地球規模の最適化手法に対して最も代表的なアルゴリズムのいくつかをベンチマークする。
論文 参考訳(メタデータ) (2022-02-23T18:11:19Z) - Control of a fly-mimicking flyer in complex flow using deep
reinforcement learning [0.12891210250935145]
複雑な流れにおけるフライスケールフレキシブル翼フライア制御のための計算流体構造力学(CFD-CSD)と深部強化学習(deep-RL)の統合フレームワークを開発した。
正確なデータを得るために、CFD-CSDを用いて力学を正確に予測する。
十分なデータを得るために、得られたデータを様々な状況で再現する新しいデータ再生方法が考案された。
論文 参考訳(メタデータ) (2021-11-04T04:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。