論文の概要: Aerodynamic and structural airfoil shape optimisation via Transfer Learning-enhanced Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2505.02634v1
- Date: Mon, 05 May 2025 13:26:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.684855
- Title: Aerodynamic and structural airfoil shape optimisation via Transfer Learning-enhanced Deep Reinforcement Learning
- Title(参考訳): 伝達学習による深部補強学習による空力・構造翼形状の最適化
- Authors: David Ramos, Lucas Lacasa, Eusebio Valero, Gonzalo Rubio,
- Abstract要約: 本稿では,任意の翼の形状を最適化できる移動学習,多目的,深部強化学習(DRL)手法を提案する。
本手法を実証するために,翼の構造的整合性を保ちながら,昇降抵抗比$C_L/C_D$を最大化する。
- 参考スコア(独自算出の注目度): 1.5468177185307304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The main objective of this paper is to introduce a transfer learning-enhanced, multi-objective, deep reinforcement learning (DRL) methodology that is able to optimise the geometry of any airfoil based on concomitant aerodynamic and structural criteria. To showcase the method, we aim to maximise the lift-to-drag ratio $C_L/C_D$ while preserving the structural integrity of the airfoil -- as modelled by its maximum thickness -- and train the DRL agent using a list of different transfer learning (TL) strategies. The performance of the DRL agent is compared with Particle Swarm Optimisation (PSO), a traditional gradient-free optimisation method. Results indicate that DRL agents are able to perform multi-objective shape optimisation, that the DRL approach outperforms PSO in terms of computational efficiency and shape optimisation performance, and that the TL-enhanced DRL agent achieves performance comparable to the DRL one, while further saving substantial computational resources.
- Abstract(参考訳): 本研究の目的は, 複合空力および構造基準に基づいて翼形状を最適化できる移動学習, 多目的深部強化学習(DRL)手法を導入することである。
本手法を実証するために, 翼の構造的整合性を最大化しつつ, C_L/C_D$を最大化し, 異なる移動学習(TL)戦略を用いてDRLエージェントを訓練することを目的とした。
DRLエージェントの性能を従来の勾配なし最適化法であるParticle Swarm Optimisation (PSO)と比較した。
その結果、DRLエージェントは多目的形状最適化が可能であり、DRLアプローチは計算効率と形状最適化性能においてPSOよりも優れており、TL強化DRLエージェントはDRLエージェントに匹敵する性能を達成でき、計算資源を節約できることがわかった。
関連論文リスト
- DiffTORI: Differentiable Trajectory Optimization for Deep Reinforcement and Imitation Learning [19.84386060857712]
本稿では、微分軌道最適化をポリシー表現として活用し、深層強化と模倣学習のためのアクションを生成するDiffTORIを提案する。
15のモデルベースRLタスクと35の模倣学習タスクに高次元画像と点クラウド入力があり、DiffTORIはどちらのドメインでも最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-02-08T05:26:40Z) - A reinforcement learning strategy for p-adaptation in high order solvers [0.0]
強化学習(Reinforcement Learning, RL)は、意思決定プロセスを自動化するための有望なアプローチである。
本稿では,高次解法を用いる場合の計算メッシュの順序を最適化するためのRL手法の適用について検討する。
論文 参考訳(メタデータ) (2023-06-14T07:01:31Z) - Optimal Goal-Reaching Reinforcement Learning via Quasimetric Learning [73.80728148866906]
準メトリック強化学習(QRL)は、準メトリックモデルを用いて最適な値関数を学習する新しいRL法である。
オフラインおよびオンラインの目標達成ベンチマークでは、QRLはサンプル効率とパフォーマンスが改善されている。
論文 参考訳(メタデータ) (2023-04-03T17:59:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。