論文の概要: De-homogenization using Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2105.04232v1
- Date: Mon, 10 May 2021 09:50:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 15:13:24.809187
- Title: De-homogenization using Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークを用いたデホモジェナイゼーション
- Authors: Martin O. Elingaard, Niels Aage, J. Andreas B{\ae}rentzen, Ole Sigmund
- Abstract要約: 本稿では,構造コンプライアンス最小化のための深層学習に基づく非均質化手法を提案する。
パラメータの適切な選択のために、非均質化設計は、均質化に基づく解の7-25%以内で実行される。
- 参考スコア(独自算出の注目度): 1.0323063834827415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a deep learning-based de-homogenization method for
structural compliance minimization. By using a convolutional neural network to
parameterize the mapping from a set of lamination parameters on a coarse mesh
to a one-scale design on a fine mesh, we avoid solving the least square
problems associated with traditional de-homogenization approaches and save time
correspondingly. To train the neural network, a two-step custom loss function
has been developed which ensures a periodic output field that follows the local
lamination orientations. A key feature of the proposed method is that the
training is carried out without any use of or reference to the underlying
structural optimization problem, which renders the proposed method robust and
insensitive wrt. domain size, boundary conditions, and loading. A
post-processing procedure utilizing a distance transform on the output field
skeleton is used to project the desired lamination widths onto the output field
while ensuring a predefined minimum length-scale and volume fraction. To
demonstrate that the deep learning approach has excellent generalization
properties, numerical examples are shown for several different load and
boundary conditions. For an appropriate choice of parameters, the
de-homogenized designs perform within $7-25\%$ of the homogenization-based
solution at a fraction of the computational cost. With several options for
further improvements, the scheme may provide the basis for future interactive
high-resolution topology optimization.
- Abstract(参考訳): 本稿では,構造コンプライアンス最小化のための深層学習に基づく非均質化手法を提案する。
畳み込みニューラルネットワークを用いて粗いメッシュ上のラミネートパラメータのセットから細かいメッシュ上のワンスケール設計へのマッピングをパラメータ化することで、従来の非ホモゲン化アプローチに関連する最小二乗問題の解決を回避し、対応する時間を節約する。
ニューラルネットワークをトレーニングするために、局所的な積層方向に従う周期的な出力フィールドを保証する2段階のカスタム損失関数が開発された。
提案手法の鍵となる特徴は,提案手法を頑健かつ無感なwrtで表現する構造最適化問題の利用や参照を伴わない訓練を行うことである。
ドメインのサイズ、境界条件、ロード。
出力フィールドスケルトン上の距離変換を利用した後処理手順を用いて、所望のラミネート幅を予め定義された最小長スケールと体積率を確保しつつ出力フィールドに投影する。
ディープラーニングアプローチが一般化性に優れたことを示すために,いくつかの異なる負荷条件と境界条件について数値例を示す。
パラメータの適切な選択のために、非ホモジナイズド設計は、計算コストのごく一部で、均質化ベースのソリューションの7~25セント以内で実行される。
さらなる改善のためのいくつかのオプションにより、このスキームは将来のインタラクティブな高解像度トポロジー最適化の基礎を提供することができる。
関連論文リスト
- A neural network approach for solving the Monge-Ampère equation with transport boundary condition [0.0]
本稿では,輸送境界条件でモンジュ・アンペア方程式を解くためのニューラルネットワークに基づく新しい手法を提案する。
我々は、方程式の残差、境界条件、凸性制約を含む損失関数を最小化することにより、多層パーセプトロンネットワークを利用して近似解を学習する。
論文 参考訳(メタデータ) (2024-10-25T11:54:00Z) - Improving Generalization of Deep Neural Networks by Optimum Shifting [33.092571599896814]
本稿では,ニューラルネットワークのパラメータを最小値からフラット値に変化させる,近位シフトと呼ばれる新しい手法を提案する。
本手法は,ニューラルネットワークの入力と出力が固定された場合,ネットワーク内の行列乗算を,未決定線形方程式系として扱うことができることを示す。
論文 参考訳(メタデータ) (2024-05-23T02:31:55Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - A mechanistic-based data-driven approach to accelerate structural
topology optimization through finite element convolutional neural network
(FE-CNN) [5.469226380238751]
構造トポロジ最適化を高速化するメカニスティックなデータ駆動手法を提案する。
我々のアプローチは、オフライントレーニングとオンライン最適化の2つの段階に分けられる。
数値的な例は、この手法が計算時間で最大1桁の最適化を加速できることを示している。
論文 参考訳(メタデータ) (2021-06-25T14:11:45Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - NTopo: Mesh-free Topology Optimization using Implicit Neural
Representations [35.07884509198916]
トポロジ最適化問題に対処する新しい機械学習手法を提案する。
我々は多層パーセプトロン(MLP)を用いて密度場と変位場の両方をパラメータ化する。
実験を通じて示すように、私たちのアプローチの大きな利点は、継続的ソリューション空間の自己教師付き学習を可能にすることです。
論文 参考訳(メタデータ) (2021-02-22T05:25:22Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - An AI-Assisted Design Method for Topology Optimization Without
Pre-Optimized Training Data [68.8204255655161]
トポロジ最適化に基づくAI支援設計手法を提示し、最適化された設計を直接的に得ることができる。
設計は、境界条件と入力データとしての充填度に基づいて、人工ニューラルネットワーク、予測器によって提供される。
論文 参考訳(メタデータ) (2020-12-11T14:33:27Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z) - An Outer-approximation Guided Optimization Approach for Constrained
Neural Network Inverse Problems [0.0]
制約付きニューラルネットワーク逆問題とは、与えられたトレーニングされたニューラルネットワークの入力値の最適なセットを見つける最適化問題を指す。
本稿では、ニューラルネットワークの逆問題に対する最適解の特性を、補正活性化ユニットを用いて解析する。
提案手法は, 予測勾配法と比較して, 提案手法の優位性を示す。
論文 参考訳(メタデータ) (2020-02-24T17:49:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。