論文の概要: Dynamic Feature-based Deep Reinforcement Learning for Flow Control of
Circular Cylinder with Sparse Surface Pressure Sensing
- arxiv url: http://arxiv.org/abs/2307.01995v1
- Date: Wed, 5 Jul 2023 02:56:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 15:23:44.535010
- Title: Dynamic Feature-based Deep Reinforcement Learning for Flow Control of
Circular Cylinder with Sparse Surface Pressure Sensing
- Title(参考訳): スパース表面圧力センシングを用いた円柱流れ制御のための動的特徴量に基づく深層補強学習
- Authors: Qiulei Wang, Lei Yan, Gang Hu, Wenli Chen, Jean Rabault, Bernd R.
Noack
- Abstract要約: 本研究では,低抵抗および低リフト変動に着目した閉ループシリンダーウェイク制御のための自己学習アルゴリズムを提案する。
その結果、動的特徴ベースDRL(DF-DRL)は、動的モデルなしで自動的に植物内のフィードバック制御を学習する。
- 参考スコア(独自算出の注目度): 7.303769608122812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study proposes a self-learning algorithm for closed-loop cylinder wake
control targeting lower drag and lower lift fluctuations with the additional
challenge of sparse sensor information, taking deep reinforcement learning as
the starting point. DRL performance is significantly improved by lifting the
sensor signals to dynamic features (DF), which predict future flow states. The
resulting dynamic feature-based DRL (DF-DRL) automatically learns a feedback
control in the plant without a dynamic model. Results show that the drag
coefficient of the DF-DRL model is 25% less than the vanilla model based on
direct sensor feedback. More importantly, using only one surface pressure
sensor, DF-DRL can reduce the drag coefficient to a state-of-the-art
performance of about 8% at Re = 100 and significantly mitigate lift coefficient
fluctuations. Hence, DF-DRL allows the deployment of sparse sensing of the flow
without degrading the control performance. This method also shows good
robustness in controlling flow under higher Reynolds numbers, which reduces the
drag coefficient by 32.2% and 46.55% at Re = 500 and 1000, respectively,
indicating the broad applicability of the method. Since surface pressure
information is more straightforward to measure in realistic scenarios than flow
velocity information, this study provides a valuable reference for
experimentally designing the active flow control of a circular cylinder based
on wall pressure signals, which is an essential step toward further developing
intelligent control in realistic multi-input multi-output (MIMO) system.
- Abstract(参考訳): 本研究では,低抵抗・低リフト変動を目標とした閉ループシリンダウェイク制御のための自己学習アルゴリズムを提案する。
DRLの性能は、センサー信号を動的特徴(DF)に引き上げることで大幅に向上し、将来の流れ状態を予測する。
その結果、動的特徴ベースDRL(DF-DRL)は、動的モデルなしで自動的に植物内のフィードバック制御を学習する。
その結果,DF-DRLモデルの抵抗係数は直接センサフィードバックに基づいてバニラモデルよりも25%小さいことがわかった。
さらに, DF-DRLは1つの表面圧力センサのみを用いて, Re = 100 で約8%の最先端性能にドラッグ係数を低減し, 昇降係数の変動を著しく軽減することができる。
したがって、DF-DRLは制御性能を低下させることなく、流れのスパースセンシングを展開できる。
また,高レイノルズ数下の流れを制御する際のロバスト性も良好であり,re=500と1000では抵抗係数が32.2%,46.55%減少し,広い適用性を示している。
表面圧力情報は,流速情報よりも現実的なシナリオで測定しやすいため,壁面圧力信号に基づいて円柱のアクティブフロー制御を実験的に設計する上で貴重な基準を提供する。
関連論文リスト
- Towards Active Flow Control Strategies Through Deep Reinforcement Learning [0.0]
本稿では,空気力学的物体の抵抗を低減するために,アクティブフロー制御(AFC)のための深層強化学習フレームワークを提案する。
Re = 100で3Dシリンダーで試験され、DRLアプローチは9.32%のドラッグ低減と78.4%のリフト発振を達成した。
論文 参考訳(メタデータ) (2024-11-08T12:49:24Z) - ImDy: Human Inverse Dynamics from Imitated Observations [47.994797555884325]
逆ダイナミクス(ID)は、人間の運動学的観察から駆動トルクを再現することを目的としている。
従来の最適化ベースのIDは高価な実験室のセットアップを必要とし、可用性を制限している。
本稿では、近年進歩的な人間の動作模倣アルゴリズムを利用して、データ駆動方式で人間の逆ダイナミクスを学習することを提案する。
論文 参考訳(メタデータ) (2024-10-23T07:06:08Z) - Function Approximation for Reinforcement Learning Controller for Energy from Spread Waves [69.9104427437916]
マルチジェネレータ・ウェーブ・エナジー・コンバータ(WEC)は、スプレッド・ウェーブと呼ばれる異なる方向から来る複数の同時波を処理しなければならない。
これらの複雑な装置は、エネルギー捕獲効率、維持を制限する構造的ストレスの低減、高波に対する積極的な保護という複数の目的を持つコントローラを必要とする。
本稿では,システム力学のシーケンシャルな性質をモデル化する上で,ポリシーと批判ネットワークの異なる機能近似について検討する。
論文 参考訳(メタデータ) (2024-04-17T02:04:10Z) - Compressing Deep Reinforcement Learning Networks with a Dynamic
Structured Pruning Method for Autonomous Driving [63.155562267383864]
深部強化学習(DRL)は複雑な自律運転シナリオにおいて顕著な成功を収めている。
DRLモデルは、必然的に高いメモリ消費と計算をもたらし、リソース限定の自動運転デバイスへの広範な展開を妨げる。
そこで本研究では,DRLモデルの非重要なニューロンを段階的に除去する,新しい動的構造化プルーニング手法を提案する。
論文 参考訳(メタデータ) (2024-02-07T09:00:30Z) - Active Control of Flow over Rotating Cylinder by Multiple Jets using
Deep Reinforcement Learning [0.0]
本稿では, 深部強化学習(DRL)アルゴリズムとともにシリンダーに回転を付加する。
回転とDRLの組み合わせは渦の沈みを抑え、カルマン渦路を安定化させ、抵抗係数を最大49.75%減少させるので有望であることがわかった。
論文 参考訳(メタデータ) (2023-07-22T14:15:29Z) - Value function estimation using conditional diffusion models for control [62.27184818047923]
拡散値関数(DVF)と呼ばれる単純なアルゴリズムを提案する。
拡散モデルを用いて環境-ロボット相互作用の連成多段階モデルを学ぶ。
本稿では,DVFを用いて複数のコントローラの状態を効率よく把握する方法を示す。
論文 参考訳(メタデータ) (2023-06-09T18:40:55Z) - How to Control Hydrodynamic Force on Fluidic Pinball via Deep
Reinforcement Learning [3.1635451288803638]
流体ピンボールの流体力を制御するためのDRLに基づくリアルタイムフィードバック戦略を提案する。
報酬関数を適切に設計し、歴史的観測を符号化することにより、DRLに基づく制御が合理的かつ有効な制御決定を行うことを示した。
これらの結果の1つは、力追跡プロセスの意思決定と物理的メカニズムに基づいて光を放つことができる機械学習モデルによって分析された。
論文 参考訳(メタデータ) (2023-04-23T03:39:50Z) - Real-Time Model-Free Deep Reinforcement Learning for Force Control of a
Series Elastic Actuator [56.11574814802912]
最先端のロボットアプリケーションは、歩行、揚力、操作などの複雑なタスクを達成するために、閉ループ力制御を備えた連続弾性アクチュエータ(SEAs)を使用する。
モデルフリーPID制御法はSEAの非線形性により不安定になりやすい。
深層強化学習は連続制御タスクに有効なモデルレス手法であることが証明されている。
論文 参考訳(メタデータ) (2023-04-11T00:51:47Z) - Turbulence control in plane Couette flow using low-dimensional neural
ODE-based models and deep reinforcement learning [0.0]
DManD-RL (data-driven manifold dynamics-RL) は,データ駆動型低次元モデルを生成する。
我々はRL制御エージェントを訓練し、数値シミュレーションで440倍のスピードアップを達成した。
エージェントは900時間以内の未確認DNSテストトラジェクトリの84%をラミナライズするポリシーを学習する。
論文 参考訳(メタデータ) (2023-01-28T05:47:10Z) - High-bandwidth nonlinear control for soft actuators with recursive
network models [1.4174475093445231]
本稿では,Newton-Raphson を用いたソフトアクチュエータの高帯域幅,軽量,非線形出力追跡手法を提案する。
この手法により、従来のRNNモデルと比較してモデルサイズを縮小し、制御ループ周波数を増大させることができる。
論文 参考訳(メタデータ) (2021-01-04T18:12:41Z) - DUT-LFSaliency: Versatile Dataset and Light Field-to-RGB Saliency
Detection [104.50425501764806]
ライトフィールドサリエンシー検出のための汎用性の高いアプリケーションを可能にする大規模なデータセットを紹介します。
本論文では,フォカルストリームとRGBストリームからなる非対称2ストリームモデルを提案する。
実験は、我々の焦点ストリームが最先端のパフォーマンスを達成することを実証する。
論文 参考訳(メタデータ) (2020-12-30T11:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。