論文の概要: Topology Optimization using Neural Networks with Conditioning Field
Initialization for Improved Efficiency
- arxiv url: http://arxiv.org/abs/2305.10460v1
- Date: Wed, 17 May 2023 07:42:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 18:46:45.946939
- Title: Topology Optimization using Neural Networks with Conditioning Field
Initialization for Improved Efficiency
- Title(参考訳): コンディショニングフィールド初期化を用いたニューラルネットワークによるトポロジー最適化
- Authors: Hongrui Chen, Aditya Joglekar, Levent Burak Kara
- Abstract要約: 我々は、未最適化領域の事前初期フィールドを使用することで、ニューラルネットワークに基づくトポロジ最適化の効率をさらに向上できることを示す。
我々は、最適化を通じてニューラルネットワークに入力される追加条件付けフィールドとして、初期設計領域で計算されたひずみエネルギー場を用いる。
- 参考スコア(独自算出の注目度): 2.575019247624295
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose conditioning field initialization for neural network based
topology optimization. In this work, we focus on (1) improving upon existing
neural network based topology optimization, (2) demonstrating that by using a
prior initial field on the unoptimized domain, the efficiency of neural network
based topology optimization can be further improved. Our approach consists of a
topology neural network that is trained on a case by case basis to represent
the geometry for a single topology optimization problem. It takes in domain
coordinates as input to represent the density at each coordinate where the
topology is represented by a continuous density field. The displacement is
solved through a finite element solver. We employ the strain energy field
calculated on the initial design domain as an additional conditioning field
input to the neural network throughout the optimization. The addition of the
strain energy field input improves the convergence speed compared to standalone
neural network based topology optimization.
- Abstract(参考訳): ニューラルネットワークに基づくトポロジー最適化のための条件付きフィールド初期化を提案する。
本研究では,(1)既存のニューラルネットワークによるトポロジ最適化の改善,(2)最適化されていない領域に事前初期フィールドを使用することにより,ニューラルネットワークによるトポロジ最適化の効率をさらに向上できることを示す。
提案手法は,ケースベースで学習したトポロジニューラルネットワークを用いて,単一トポロジ最適化問題の幾何学を表現する。
領域座標を入力として、トポロジーが連続密度場で表される各座標における密度を表す。
変位は有限要素ソルバによって解決される。
初期設計領域で計算されたひずみエネルギー場を最適化を通じてニューラルネットワークに入力される追加条件場として利用する。
ひずみエネルギー場入力の追加は、スタンドアロンのニューラルネットワークに基づくトポロジー最適化と比較して収束速度を改善する。
関連論文リスト
- Neural Networks for Generating Better Local Optima in Topology Optimization [0.4543820534430522]
ニューラルネットワーク素材の離散化が、特定の条件下で、より困難な最適化問題において、より優れた局所最適性を見出すことができることを示す。
ニューラルネットワークの材料識別のアドバンテージは、現在の制限との相互作用にある、と強調する。
論文 参考訳(メタデータ) (2024-07-25T11:24:44Z) - DMF-TONN: Direct Mesh-free Topology Optimization using Neural Networks [4.663709549795511]
本研究では、密度場近似ニューラルネットワークと変位場近似ニューラルネットワークを統合することで、トポロジ最適化を行うための直接メッシュフリー手法を提案する。
この直接積分手法は従来のトポロジ最適化手法に匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2023-05-06T18:04:51Z) - Concurrent build direction, part segmentation, and topology optimization
for additive manufacturing using neural networks [2.2911466677853065]
本稿では,加法製造におけるサポート構造の利用を減らすことを目的としたトポロジー最適化のためのニューラルネットワークアプローチを提案する。
本手法では,(1)部分分割,(2)各部分のトポロジ,(3)各部分のビルド方向の同時決定が可能なネットワークアーキテクチャを用いる。
論文 参考訳(メタデータ) (2022-10-04T02:17:54Z) - Acceleration techniques for optimization over trained neural network
ensembles [1.0323063834827415]
本研究では, 線形単位活性化の補正されたフィードフォワードニューラルネットワークを用いて, 目的関数をモデル化する最適化問題について検討する。
本稿では,1つのニューラルネットワークを最適化するために,既存のBig-M$の定式化をベースとした混合整数線形プログラムを提案する。
論文 参考訳(メタデータ) (2021-12-13T20:50:54Z) - Physics informed neural networks for continuum micromechanics [68.8204255655161]
近年,応用数学や工学における多種多様な問題に対して,物理情報ニューラルネットワークの適用が成功している。
グローバルな近似のため、物理情報ニューラルネットワークは、最適化によって局所的な効果と強い非線形解を表示するのに困難である。
実世界の$mu$CT-Scansから得られた不均一構造における非線形応力, 変位, エネルギー場を, 正確に解くことができる。
論文 参考訳(メタデータ) (2021-10-14T14:05:19Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Optimization Theory for ReLU Neural Networks Trained with Normalization
Layers [82.61117235807606]
ディープニューラルネットワークの成功は、部分的には正規化レイヤの使用によるものだ。
我々の分析は、正規化の導入がランドスケープをどのように変化させ、より高速なアクティベーションを実現するかを示している。
論文 参考訳(メタデータ) (2020-06-11T23:55:54Z) - The Hidden Convex Optimization Landscape of Two-Layer ReLU Neural
Networks: an Exact Characterization of the Optimal Solutions [51.60996023961886]
コーン制約のある凸最適化プログラムを解くことにより,グローバルな2層ReLUニューラルネットワークの探索が可能であることを示す。
我々の分析は新しく、全ての最適解を特徴づけ、最近、ニューラルネットワークのトレーニングを凸空間に持ち上げるために使われた双対性に基づく分析を活用できない。
論文 参考訳(メタデータ) (2020-06-10T15:38:30Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - TopologyGAN: Topology Optimization Using Generative Adversarial Networks
Based on Physical Fields Over the Initial Domain [2.0263791972068628]
そこで我々はTopologyGANと呼ばれる新しいデータ駆動トポロジ最適化モデルを提案する。
位相GANは、条件付き生成逆数ネットワーク(cGAN)のジェネレータへの入力として、元の未最適化物質領域で計算された様々な物理場を利用する
ベースラインのcGANと比較すると、TopologyGANは平均二乗誤差を約3ドル、平均絶対誤差を2.5ドル削減する。
論文 参考訳(メタデータ) (2020-03-05T14:40:11Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。