論文の概要: Localized Physics-informed Gaussian Processes with Curriculum Training for Topology Optimization
- arxiv url: http://arxiv.org/abs/2503.15561v1
- Date: Tue, 18 Mar 2025 22:59:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 19:01:19.874083
- Title: Localized Physics-informed Gaussian Processes with Curriculum Training for Topology Optimization
- Title(参考訳): 位相最適化のためのカリキュラムトレーニングによる局所化物理インフォームドガウス過程
- Authors: Amin Yousefpour, Shirin Hosseinmardi, Xiangyu Sun, Ramin Bostanabad,
- Abstract要約: 物理インフォームドガウス過程(GP)に基づく同時かつメッシュフリーなトポロジー最適化(TO)フレームワークを提案する。
我々のフレームワークは、カスタマイズされたディープニューラルネットワーク(DNN)を介してパラメータ化される共有のマルチアウトプット平均関数を持つGPプリエントを介して、すべての設計と状態変数を提供する。
我々のTOアプローチは、適切に定義された材料インターフェースを生成し、グローバルな最適性を促進するための継続特性を内蔵している。
- 参考スコア(独自算出の注目度): 3.6352820455705372
- License:
- Abstract: We introduce a simultaneous and meshfree topology optimization (TO) framework based on physics-informed Gaussian processes (GPs). Our framework endows all design and state variables via GP priors which have a shared, multi-output mean function that is parametrized via a customized deep neural network (DNN). The parameters of this mean function are estimated by minimizing a multi-component loss function that depends on the performance metric, design constraints, and the residuals on the state equations. Our TO approach yields well-defined material interfaces and has a built-in continuation nature that promotes global optimality. Other unique features of our approach include (1) its customized DNN which, unlike fully connected feed-forward DNNs, has a localized learning capacity that enables capturing intricate topologies and reducing residuals in high gradient fields, (2) its loss function that leverages localized weights to promote solution accuracy around interfaces, and (3) its use of curriculum training to avoid local optimality.To demonstrate the power of our framework, we validate it against commercial TO package COMSOL on three problems involving dissipated power minimization in Stokes flow.
- Abstract(参考訳): 物理インフォームドガウス過程(GP)に基づく同時かつメッシュフリーなトポロジー最適化(TO)フレームワークを提案する。
我々のフレームワークは、GPプリエントを介して、カスタマイズされたディープニューラルネットワーク(DNN)を介してパラメータ化される共有のマルチアウトプット平均関数を持つ全ての設計変数と状態変数を付与する。
この平均関数のパラメータは、性能指標、設計制約、状態方程式の残差に依存する多成分損失関数を最小化することによって推定される。
我々のTOアプローチは、適切に定義された材料インターフェースを生成し、グローバルな最適性を促進する継続性を備えている。
提案手法の他の特徴として,(1)完全接続型フィードフォワードDNNとは違い,局所的な学習能力があり,複雑なトポロジを捕捉し,高勾配場の残差を低減し,(2)局所的な重みを生かしてインタフェースの解の精度を向上する損失関数,(3)局所的な最適性を回避するためのカリキュラムトレーニングの利用などがあげられる。
関連論文リスト
- Finite Element Neural Network Interpolation. Part I: Interpretable and Adaptive Discretization for Solving PDEs [44.99833362998488]
組込み有限要素ニューラルネットワーク(EFENN)における従来の研究を拡張したスパースニューラルネットワークアーキテクチャを提案する。
EFENNはメッシュベースの構造であるため、完全に接続されたニューラルネットワークよりもトレーニング可能なパラメータをはるかに少なくする必要がある。
EFENNフレームワーク内のFENNIフレームワークは、HiDeNNアプローチの改善をもたらします。
論文 参考訳(メタデータ) (2024-12-07T18:31:17Z) - Simultaneous and Meshfree Topology Optimization with Physics-informed Gaussian Processes [0.0]
トポロジ最適化(TO)は、その物質空間分布を予め定義された領域で設計し、制約の集合に従うことによって、構造の性能を最適化する原理的な数学的アプローチを提供する。
我々は,ガウス過程(GP)の枠組みに基づく新しいTO手法を開発し,その平均関数はディープニューラルネットワークを介してパラメータ化される。
本手法を商用ソフトウェアに実装した従来のTO手法に対して検証するため,ストークスフローにおける消散電力の最小化を含む4つの問題に対して評価を行った。
論文 参考訳(メタデータ) (2024-08-07T01:01:35Z) - Exploring End-to-end Differentiable Neural Charged Particle Tracking -- A Loss Landscape Perspective [0.0]
粒子追跡のためのE2E差分型決定型学習手法を提案する。
離散的な代入操作の微分可能なバリエーションは、効率的なネットワーク最適化を可能にすることを示す。
E2Eの微分性は、勾配情報の一般利用に加えて、予測不安定性を緩和するロバスト粒子追跡のための重要なツールである、と我々は主張する。
論文 参考訳(メタデータ) (2024-07-18T11:42:58Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
ニューラルネットワークのような予測器のための新しいトレーニング原理であるLFP(Layer-wise Feedback Propagation)を提案する。
LFPは、与えられたタスクの解決へのそれぞれの貢献に基づいて、個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分を補強し,有害な部分を弱めるという欲求的アプローチを実現する。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Physics and Equality Constrained Artificial Neural Networks: Application
to Partial Differential Equations [1.370633147306388]
偏微分方程式(PDE)の解を学ぶために物理インフォームドニューラルネットワーク(PINN)が提案されている。
本稿では,この目的関数の定式化方法が,PINNアプローチにおける厳密な制約の源であることを示す。
本稿では,逆問題と前方問題の両方に対処可能な多目的フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-30T05:55:35Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - De-homogenization using Convolutional Neural Networks [1.0323063834827415]
本稿では,構造コンプライアンス最小化のための深層学習に基づく非均質化手法を提案する。
パラメータの適切な選択のために、非均質化設計は、均質化に基づく解の7-25%以内で実行される。
論文 参考訳(メタデータ) (2021-05-10T09:50:06Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - Resource Allocation via Model-Free Deep Learning in Free Space Optical
Communications [119.81868223344173]
本稿では,自由空間光学(FSO)通信におけるチャネルフェージング効果の緩和のための資源配分の一般的な問題について検討する。
本フレームワークでは,FSO資源割り当て問題を解決する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-27T17:38:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。