論文の概要: FluTO: Graded Multiscale Fluid Topology Optimization using Neural
Networks
- arxiv url: http://arxiv.org/abs/2209.08168v1
- Date: Fri, 16 Sep 2022 20:52:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 20:15:29.391503
- Title: FluTO: Graded Multiscale Fluid Topology Optimization using Neural
Networks
- Title(参考訳): fluto:ニューラルネットワークを用いたグレードドドドマルチスケール流体トポロジー最適化
- Authors: Rahul Kumar Padhy, Aaditya Chandrasekhar, Krishnan Suresh
- Abstract要約: 本研究では,流体流動デバイスの設計のための段階的マルチスケールトポロジ最適化(GMTO)を提案する。
GMTOはマルチスケールトポロジ最適化(MTO)の利点の多くを保持しながら計算を著しく削減する
- 参考スコア(独自算出の注目度): 5.104113288544065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fluid-flow devices with low dissipation, but high contact area, are of
importance in many applications. A well-known strategy to design such devices
is multi-scale topology optimization (MTO), where optimal microstructures are
designed within each cell of a discretized domain. Unfortunately, MTO is
computationally very expensive since one must perform homogenization of the
evolving microstructures, during each step of the homogenization process. As an
alternate, we propose here a graded multiscale topology optimization (GMTO) for
designing fluid-flow devices. In the proposed method, several pre-selected but
size-parameterized and orientable microstructures are used to fill the domain
optimally. GMTO significantly reduces the computation while retaining many of
the benefits of MTO.
In particular, GMTO is implemented here using a neural-network (NN) since:
(1) homogenization can be performed off-line, and used by the NN during
optimization, (2) it enables continuous switching between microstructures
during optimization, (3) the number of design variables and computational
effort is independent of number of microstructure used, and, (4) it supports
automatic differentiation, thereby eliminating manual sensitivity analysis.
Several numerical results are presented to illustrate the proposed framework.
- Abstract(参考訳): 散逸は少ないが接触面積が高い流体流デバイスは、多くの応用において重要である。
このようなデバイスを設計するためのよく知られた戦略はマルチスケールトポロジー最適化(MTO)である。
残念ながら、MTOは、均質化過程の各段階において、進化するミクロ構造の均質化を行う必要があるため、計算上は非常に高価である。
そこで本研究では,流体流デバイス設計のための段階的マルチスケールトポロジ最適化(GMTO)を提案する。
提案手法では, ドメインを最適に満たすために, プリセレクトされているが, サイズがパラメータ化され, 配向可能ないくつかのマイクロ構造を用いる。
GMTOはMTOの利点の多くを保持しながら計算を大幅に削減する。
特に, GMTOは, (1) 均質化をオフラインで行うことができ, 最適化中にNNが使用すること (2) 最適化中にマイクロ構造を連続的に切り替えること (2) 設計変数の数と計算労力は, 使用するマイクロ構造数とは無関係であること, (4) 自動微分をサポートし, 手動感度解析を不要にする。
提案するフレームワークを説明するために,いくつかの数値結果を示す。
関連論文リスト
- Dynamically configured physics-informed neural network in topology
optimization applications [4.403140515138818]
物理インフォームドニューラルネットワーク(PINN)は、前方問題を解決する際に大量のデータを生成するのを避けることができる。
動的に構成された PINN-based Topology Optimization (DCPINN-TO) 法を提案する。
変位予測と最適化結果の精度は,DCPINN-TO法が効率的かつ効率的であることを示している。
論文 参考訳(メタデータ) (2023-12-12T05:35:30Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Slow Invariant Manifolds of Singularly Perturbed Systems via
Physics-Informed Machine Learning [0.0]
特異摂動系の遅い不変多様体(SIM)を近似するための物理インフォームド・機械学習(PIML)手法を提案する。
提案手法では,従来のGSPT法よりも精度の高い近似法が提案されている。
また、学習過程において必要となる微分の記号的、自動的、数値的近似の計算コストの比較を行う。
論文 参考訳(メタデータ) (2023-09-14T14:10:22Z) - Neural Optimization Machine: A Neural Network Approach for Optimization [10.283797653337132]
制約付き最適化のための新しいニューラルネットワーク(NN)アプローチを提案する。
提案手法はニューラル・オプティマイゼーション・マシン(NOM)と呼ばれる特別設計のNNアーキテクチャとトレーニング/最適化手法を用いている。
論文 参考訳(メタデータ) (2022-08-08T03:34:58Z) - A Generalized Framework for Microstructural Optimization using Neural
Networks [5.104113288544065]
本稿では,微細構造最適化問題を解決するニューラルネットワーク(NN)フレームワークを提案する。
このフレームワークは、マイクロ構造最適化の古典的な密度の定式化に依存しているが、密度場はNNの重みとバイアスによって表される。
このフレームワークは、様々な微構造最適化問題を通して説明されている。
論文 参考訳(メタデータ) (2022-07-13T20:19:16Z) - GM-TOuNN: Graded Multiscale Topology Optimization using Neural Networks [5.104113288544065]
本稿では,ニューラルネットワーク(GM-TOuNN)フレームワークを用いたマルチスケールトポロジ最適化を提案する。
提案するフレームワークは,いくつかの例から説明されている。
論文 参考訳(メタデータ) (2022-04-14T00:34:28Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Speeding up Computational Morphogenesis with Online Neural Synthetic
Gradients [51.42959998304931]
現代科学および工学の適用の広い範囲は制約として部分的な微分方程式(PDEs)のシステムとの最適化問題として定式化されます。
これらのPDE制約最適化問題は通常、標準のDisretize-then-optimizeアプローチで解決される。
オンラインニューラル合成勾配(ONSG)を用いたPDE制約最適化の高速化のための新しい2スケール最適化手法を提案する。
論文 参考訳(メタデータ) (2021-04-25T22:43:51Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。