論文の概要: Airfoil Shape Optimization using Deep Q-Network
- arxiv url: http://arxiv.org/abs/2211.17189v1
- Date: Tue, 29 Nov 2022 02:54:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 18:18:15.233679
- Title: Airfoil Shape Optimization using Deep Q-Network
- Title(参考訳): 深部Qネットワークを用いた翼形状最適化
- Authors: Siddharth Rout, Chao-An Lin
- Abstract要約: ディープQネットワーク(DQN)はマルコフの意思決定プロセス上で最適な形状を見つけるために用いられる。
エアフォイルプロファイルは、ベジエ制御点を用いて生成され、制御変数の数を減らす。
このプロセスは、プロファイルの各制御ポイントに対して行われた変更のエピソードの検索として設計されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The feasibility of using reinforcement learning for airfoil shape
optimization is explored. Deep Q-Network (DQN) is used over Markov's decision
process to find the optimal shape by learning the best changes to the initial
shape for achieving the required goal. The airfoil profile is generated using
Bezier control points to reduce the number of control variables. The changes in
the position of control points are restricted to the direction normal to the
chordline so as to reduce the complexity of optimization. The process is
designed as a search for an episode of change done to each control point of a
profile. The DQN essentially learns the episode of best changes by updating the
temporal difference of the Bellman Optimality Equation. The drag and lift
coefficients are calculated from the distribution of pressure coefficient along
the profile computed using XFoil potential flow solver. These coefficients are
used to give a reward to every change during the learning process where the
ultimate aim stands to maximize the cumulate reward of an episode.
- Abstract(参考訳): 翼形状最適化における強化学習の有効性について検討した。
ディープqネットワーク(dqn)はマルコフの決定プロセス上で使われ、必要な目標を達成するために初期形状の最良の変化を学習することで最適な形状を見つける。
エアフォイルプロファイルはベジエ制御点を用いて生成され、制御変数の数を減らす。
制御点の位置の変化は、最適化の複雑さを減らすために、コードラインに正常な方向に限定される。
このプロセスは、プロファイルの各制御ポイントに対して行われた変更のエピソードの検索として設計されている。
DQNは基本的に、ベルマン最適方程式の時間差を更新することで、最高の変化のエピソードを学習する。
XFoil電位フローソルバを用いて計算したプロファイルに沿った圧力係数分布からドラッグ・アンド・リフト係数を算出する。
これらの係数は、最終目的がエピソードの累積報酬を最大化する学習過程において、すべての変化に報酬を与えるために使用される。
関連論文リスト
- Machine-learning-based multipoint optimization of fluidic injection parameters for improving nozzle performance [2.5864426808687893]
本稿では,計算流体力学(CFD)シミュレーションの代替として,事前学習ニューラルネットワークモデルを用いる。
ノズル流れ場の物理的特性を考慮すると, モデルの伝達性を高めるために, 先行予測手法が採用された。
推力係数1.14%の改善を実現し、従来の最適化手法と比較して時間コストを大幅に削減する。
論文 参考訳(メタデータ) (2024-09-19T12:32:54Z) - A mechanism-driven reinforcement learning framework for shape optimization of airfoils [0.32885740436059047]
翼形状最適化のための機構駆動強化学習フレームワークを提案する。
強化学習法では、定常方程式の効率的な解法が用いられる。
ニューラルネットワークアーキテクチャは、気翼形状の微妙な変化に学習プロセスをより敏感にするために、注意機構に基づいて設計されている。
論文 参考訳(メタデータ) (2024-03-07T08:48:42Z) - Proactively incremental-learning QAOA [9.677961025372115]
逐次学習に基づく量子近似最適化アルゴリズム(QAOA)を提案する。
本手法は, 近似比(AR)とトレーニング時間において, 一般的なQAOAよりも優れた性能を有する。
論文 参考訳(メタデータ) (2023-11-04T02:15:26Z) - FedNAR: Federated Optimization with Normalized Annealing Regularization [54.42032094044368]
ウェイト崩壊の選択を探索し、ウェイト崩壊値が既存のFLアルゴリズムの収束に有意な影響を及ぼすことを確かめる。
我々は,既存のFLアルゴリズムにシームレスに統合可能なプラグインであるFederated Optimization with Normalized Annealing Regularization (FedNAR)を開発した。
論文 参考訳(メタデータ) (2023-10-04T21:11:40Z) - Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation [53.611206368815125]
本研究では,3次元点雲から勾配ベクトルを一貫した向きで学習し,正規推定を行うためのディープラーニング手法を提案する。
局所平面幾何に基づいて角距離場を学習し、粗勾配ベクトルを洗練する。
本手法は,局所特徴記述の精度と能力の一般化を図りながら,グローバル勾配近似を効率的に行う。
論文 参考訳(メタデータ) (2023-09-17T08:35:11Z) - Deep neural operators can serve as accurate surrogates for shape
optimization: A case study for airfoils [3.2996060586026354]
本研究では, 形状最適化を目的とし, 未確認翼まわりの流れ場を推定するためにDeepONetsを用いることを検討した。
本稿では,オンライン最適化コストを桁違いに削減しつつ,予測精度の劣化が少ない結果を示す。
論文 参考訳(メタデータ) (2023-02-02T00:19:09Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - Self-Tuning Stochastic Optimization with Curvature-Aware Gradient
Filtering [53.523517926927894]
サンプルごとのHessian-vector積と勾配を用いて、自己チューニングの二次構造を構築する。
モデルに基づく手続きが雑音勾配設定に収束することを証明する。
これは自己チューニング二次体を構築するための興味深いステップである。
論文 参考訳(メタデータ) (2020-11-09T22:07:30Z) - ClipUp: A Simple and Powerful Optimizer for Distribution-based Policy
Evolution [2.2731500742482305]
ClipUpは、その動作原理がシンプルで理解しやすいため、分散ベースのポリシー進化にとってより良い選択である、と私たちは主張する。
実験によると、ClipUpは単純さにもかかわらずAdamと競合しており、継続的な制御ベンチマークに挑戦する上で有効である。
論文 参考訳(メタデータ) (2020-08-05T22:46:23Z) - Balancing Rates and Variance via Adaptive Batch-Size for Stochastic
Optimization Problems [120.21685755278509]
本研究は,ステップサイズの減衰が正確な収束に必要であるという事実と,一定のステップサイズがエラーまでの時間でより速く学習するという事実のバランスをとることを目的とする。
ステップサイズのミニバッチを最初から修正するのではなく,パラメータを適応的に進化させることを提案する。
論文 参考訳(メタデータ) (2020-07-02T16:02:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。