論文の概要: Intelligent Optimization of Multi-Parameter Micromixers Using a Scientific Machine Learning Framework
- arxiv url: http://arxiv.org/abs/2511.07702v1
- Date: Wed, 12 Nov 2025 01:12:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.439968
- Title: Intelligent Optimization of Multi-Parameter Micromixers Using a Scientific Machine Learning Framework
- Title(参考訳): 科学機械学習フレームワークを用いたマルチパラメータマイクロミキサのインテリジェント最適化
- Authors: Meraj Hassanzadeh, Ehsan Ghaderi, Mohamad Ali Bijarchi, Siamak Kazemzadeh Hannani,
- Abstract要約: 本稿では,最先端のScience Machine Learning(Sci-ML)手法を活用した新しいフレームワークを提案する。
提案手法は,複雑な多次元最適化問題のスペクトルに対する瞬時解を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multidimensional optimization has consistently been a critical challenge in engineering. However, traditional simulation-based optimization methods have long been plagued by significant limitations: they are typically capable of optimizing only a single problem at a time and require substantial computational time for meshing and numerical simulation. This paper introduces a novel framework leveraging cutting-edge Scientific Machine Learning (Sci-ML) methodologies to overcome these inherent drawbacks of conventional approaches. The proposed method provides instantaneous solutions to a spectrum of complex, multidimensional optimization problems. A micromixer case study is employed to demonstrate this methodology. An agent, operating on a Deep Reinforcement Learning (DRL) architecture, serves as the optimizer to explore the relationships between key problem parameters. This optimizer interacts with an environment constituted by a parametric Physics-Informed Neural Network (PINN), which responds to the agent's actions at a significantly higher speed than traditional numerical methods. The agent's objective, conditioned on the Schmidt number is to discover the optimal geometric and physical parameters that maximize the micromixer's efficiency. After training the agent across a wide range of Schmidt numbers, we analyzed the resulting optimal designs. Across this entire spectrum, the achieved efficiency was consistently greater than the baseline, normalized value. The maximum efficiency occurred at a Schmidt number of 13.3, demonstrating an improvement of approximately 32%. Finally, a comparative analysis with a Genetic Algorithm was conducted under equivalent conditions to underscore the advantages of the proposed method.
- Abstract(参考訳): 多次元最適化は、エンジニアリングにおいて一貫して重要な課題である。
しかし、従来のシミュレーションベースの最適化手法は、多くの場合、一度に1つの問題だけを最適化し、メッシュ化や数値シミュレーションにかなりの計算時間を必要とするという、重大な制限に悩まされてきた。
本稿では,最先端のScience Machine Learning(Sci-ML)手法を利用して,従来の手法の欠点を克服する新しい枠組みを提案する。
提案手法は,複雑な多次元最適化問題のスペクトルに対する瞬時解を提供する。
マイクロミキサーケーススタディを用いてこの方法論を実証する。
エージェントは、Deep Reinforcement Learning (DRL)アーキテクチャで動作し、鍵となる問題パラメータ間の関係を探索するオプティマイザとして機能する。
このオプティマイザは、パラメトリック物理情報ニューラルネットワーク(PINN)によって構成される環境と相互作用する。
シュミット数に基づくエージェントの目的は、マイクロミキサーの効率を最大化する最適な幾何学的および物理的パラメータを発見することである。
エージェントを広い範囲のシュミット数で訓練した後、結果の最適設計を解析した。
このスペクトル全体では、達成された効率は基準値、正規化値よりも一貫して大きかった。
最大効率はシュミットの13.3で行われ、約32%の改善が示された。
最後に, 遺伝的アルゴリズムとの比較分析を行い, 提案手法の利点を明らかにする。
関連論文リスト
- End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Agent-based Collaborative Random Search for Hyper-parameter Tuning and
Global Function Optimization [0.0]
本稿では,機械学習モデルにおける任意のハイパーパラメータの任意の集合に対する近似値を求めるためのエージェントベース協調手法を提案する。
提案モデルの動作,特に設計パラメータの変化に対して,機械学習およびグローバル関数最適化アプリケーションの両方で検討する。
論文 参考訳(メタデータ) (2023-03-03T21:10:17Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - A Globally Convergent Gradient-based Bilevel Hyperparameter Optimization
Method [0.0]
ハイパーパラメータ最適化問題の解法として,勾配に基づく双レベル法を提案する。
提案手法は, より低い計算量に収束し, テストセットをより良く一般化するモデルに導かれることを示す。
論文 参考訳(メタデータ) (2022-08-25T14:25:16Z) - Multi-objective robust optimization using adaptive surrogate models for
problems with mixed continuous-categorical parameters [0.0]
ロバスト設計の最適化は、不確実性が主に目的関数に影響を与える場合、伝統的に考慮されている。
結果として生じるネスト最適化問題は、非支配的ソート遺伝的アルゴリズム(NSGA-II)において、汎用的な解法を用いて解決することができる。
提案手法は、適応的に構築されたKrigingモデルを用いて、NSGA-IIを順次実行し、量子を推定する。
論文 参考訳(メタデータ) (2022-03-03T20:23:18Z) - Speeding up Computational Morphogenesis with Online Neural Synthetic
Gradients [51.42959998304931]
現代科学および工学の適用の広い範囲は制約として部分的な微分方程式(PDEs)のシステムとの最適化問題として定式化されます。
これらのPDE制約最適化問題は通常、標準のDisretize-then-optimizeアプローチで解決される。
オンラインニューラル合成勾配(ONSG)を用いたPDE制約最適化の高速化のための新しい2スケール最適化手法を提案する。
論文 参考訳(メタデータ) (2021-04-25T22:43:51Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Using models to improve optimizers for variational quantum algorithms [1.7475326826331605]
変分量子アルゴリズムは、ノイズの多い中間スケール量子コンピュータの初期応用の第一候補である。
これらのアルゴリズムは、パラメータ化量子回路の機能を最小化する古典的な最適化外ループに依存している。
本稿では,2つの最適化手法を導入し,その性能を今日の一般的な手法と数値的に比較する。
論文 参考訳(メタデータ) (2020-05-22T05:23:23Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。