論文の概要: Dynamically configured physics-informed neural network in topology
optimization applications
- arxiv url: http://arxiv.org/abs/2312.06993v1
- Date: Tue, 12 Dec 2023 05:35:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 17:27:39.965428
- Title: Dynamically configured physics-informed neural network in topology
optimization applications
- Title(参考訳): トポロジー最適化における物理情報ニューラルネットワークの動的構成
- Authors: Jichao Yin and Ziming Wen and Shuhao Li and Yaya Zhanga and Hu Wang
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)は、前方問題を解決する際に大量のデータを生成するのを避けることができる。
動的に構成された PINN-based Topology Optimization (DCPINN-TO) 法を提案する。
変位予測と最適化結果の精度は,DCPINN-TO法が効率的かつ効率的であることを示している。
- 参考スコア(独自算出の注目度): 4.403140515138818
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integration of machine learning (ML) into the topology optimization (TO)
framework is attracting increasing attention, but data acquisition in
data-driven models is prohibitive. Compared with popular ML methods, the
physics-informed neural network (PINN) can avoid generating enormous amounts of
data when solving forward problems and additionally provide better inference.
To this end, a dynamically configured PINN-based topology optimization
(DCPINN-TO) method is proposed. The DCPINN is composed of two subnetworks,
namely the backbone neural network (NN) and the coefficient NN, where the
coefficient NN has fewer trainable parameters. The designed architecture aims
to dynamically configure trainable parameters; that is, an inexpensive NN is
used to replace an expensive one at certain optimization cycles. Furthermore,
an active sampling strategy is proposed to selectively sample collocations
depending on the pseudo-densities at each optimization cycle. In this manner,
the number of collocations will decrease with the optimization process but will
hardly affect it. The Gaussian integral is used to calculate the strain energy
of elements, which yields a byproduct of decoupling the mapping of the material
at the collocations. Several examples with different resolutions validate the
feasibility of the DCPINN-TO method, and multiload and multiconstraint problems
are employed to illustrate its generalization. In addition, compared to finite
element analysis-based TO (FEA-TO), the accuracy of the displacement prediction
and optimization results indicate that the DCPINN-TO method is effective and
efficient.
- Abstract(参考訳): トポロジ最適化(TO)フレームワークへの機械学習(ML)の統合が注目されているが、データ駆動モデルにおけるデータ取得は禁止されている。
一般的なML手法と比較して、物理インフォームドニューラルネットワーク(PINN)は、前方の問題を解決する際に大量のデータを生成することを避け、さらに推論を改善することができる。
この目的のために動的に構成されたpinn-based topology optimization (dcpinn-to)法を提案する。
dcpinnは、バックボーンニューラルネットワーク(nn)と係数nnという2つのサブネットワークで構成されており、係数nnは、学習可能なパラメータが少ない。
設計されたアーキテクチャは、トレーニング可能なパラメータを動的に設定することを目的としている。
さらに,各最適化サイクルにおける擬似密度に応じてコロケーションを選択的にサンプリングするアクティブサンプリング戦略を提案する。
このようにして、最適化プロセスによってコロケーションの数は減少するが、ほとんど影響しない。
ガウス積分は元素のひずみエネルギーを計算するために使われ、コロケーションにおける物質のマッピングを分離する副産物となる。
分解能の異なるいくつかの例はDCPINN-TO法の有効性を検証し、その一般化を説明するためにマルチロードおよびマルチ制約問題を用いる。
また, (fea-to) に基づく有限要素解析と比較して, 変位予測と最適化結果の精度は, dcpinn-to法が効率的かつ効率的であることを示す。
関連論文リスト
- RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - Hallmarks of Optimization Trajectories in Neural Networks: Directional Exploration and Redundancy [75.15685966213832]
最適化トラジェクトリのリッチな方向構造をポイントワイズパラメータで解析する。
トレーニング中のスカラーバッチノルムパラメータは,ネットワーク全体のトレーニング性能と一致していることを示す。
論文 参考訳(メタデータ) (2024-03-12T07:32:47Z) - Model-Based Control with Sparse Neural Dynamics [23.961218902837807]
モデル学習と予測制御を統合した新しいフレームワークを提案する。
我々は,既存の最先端手法よりもクローズドループ性能を向上できることを示す。
論文 参考訳(メタデータ) (2023-12-20T06:25:02Z) - Towards Hyperparameter-Agnostic DNN Training via Dynamical System
Insights [4.513581513983453]
本稿では,ディープニューラルネットワーク(DNN),ECCO-DNNに特化した一階最適化手法を提案する。
本手法は, 最適変数軌道を動的システムとしてモデル化し, 軌道形状に基づいてステップサイズを適応的に選択する離散化アルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-10-21T03:45:13Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Orthogonal Stochastic Configuration Networks with Adaptive Construction
Parameter for Data Analytics [6.940097162264939]
ランダム性により、SCNは冗長で品質の低い近似線形相関ノードを生成する可能性が高まる。
機械学習の基本原理、すなわち、パラメータが少ないモデルでは、一般化が向上する。
本稿では,ネットワーク構造低減のために,低品質な隠れノードをフィルタする直交SCN(OSCN)を提案する。
論文 参考訳(メタデータ) (2022-05-26T07:07:26Z) - NTopo: Mesh-free Topology Optimization using Implicit Neural
Representations [35.07884509198916]
トポロジ最適化問題に対処する新しい機械学習手法を提案する。
我々は多層パーセプトロン(MLP)を用いて密度場と変位場の両方をパラメータ化する。
実験を通じて示すように、私たちのアプローチの大きな利点は、継続的ソリューション空間の自己教師付き学習を可能にすることです。
論文 参考訳(メタデータ) (2021-02-22T05:25:22Z) - A Dynamical View on Optimization Algorithms of Overparameterized Neural
Networks [23.038631072178735]
我々は、一般的に使用される最適化アルゴリズムの幅広いクラスについて考察する。
その結果、ニューラルネットワークの収束挙動を利用することができる。
このアプローチは他の最適化アルゴリズムやネットワーク理論にも拡張できると考えています。
論文 参考訳(メタデータ) (2020-10-25T17:10:22Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。