論文の概要: TopologyGAN: Topology Optimization Using Generative Adversarial Networks
Based on Physical Fields Over the Initial Domain
- arxiv url: http://arxiv.org/abs/2003.04685v2
- Date: Wed, 11 Mar 2020 05:59:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 07:36:18.580500
- Title: TopologyGAN: Topology Optimization Using Generative Adversarial Networks
Based on Physical Fields Over the Initial Domain
- Title(参考訳): topologygan: 初期領域上の物理場に基づく生成的逆ネットワークを用いたトポロジー最適化
- Authors: Zhenguo Nie, Tong Lin, Haoliang Jiang, Levent Burak Kara
- Abstract要約: そこで我々はTopologyGANと呼ばれる新しいデータ駆動トポロジ最適化モデルを提案する。
位相GANは、条件付き生成逆数ネットワーク(cGAN)のジェネレータへの入力として、元の未最適化物質領域で計算された様々な物理場を利用する
ベースラインのcGANと比較すると、TopologyGANは平均二乗誤差を約3ドル、平均絶対誤差を2.5ドル削減する。
- 参考スコア(独自算出の注目度): 2.0263791972068628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In topology optimization using deep learning, load and boundary conditions
represented as vectors or sparse matrices often miss the opportunity to encode
a rich view of the design problem, leading to less than ideal generalization
results. We propose a new data-driven topology optimization model called
TopologyGAN that takes advantage of various physical fields computed on the
original, unoptimized material domain, as inputs to the generator of a
conditional generative adversarial network (cGAN). Compared to a baseline cGAN,
TopologyGAN achieves a nearly $3\times$ reduction in the mean squared error and
a $2.5\times$ reduction in the mean absolute error on test problems involving
previously unseen boundary conditions. Built on several existing network
models, we also introduce a hybrid network called
U-SE(Squeeze-and-Excitation)-ResNet for the generator that further increases
the overall accuracy. We publicly share our full implementation and trained
network.
- Abstract(参考訳): ディープラーニングを用いたトポロジー最適化では、ベクトルあるいはスパース行列として表される負荷と境界条件は、設計問題のリッチなビューを符号化する機会を逃し、理想的な一般化結果よりも少ない。
条件付き生成型逆ネットワーク (cgan) の生成元への入力として, 元の非最適化物質領域で計算された様々な物理場を利用する, トポロジーganと呼ばれる新しいデータ駆動トポロジ最適化モデルを提案する。
ベースラインのcGANと比較すると、TopologyGANは平均二乗誤差の約$3\times$と、これまで見つからなかった境界条件を含むテスト上の平均絶対誤差の平均$2.5\times$を下げる。
いくつかの既存ネットワークモデルに基づいて構築され, ジェネレータ用のU-SE(Squeeze-and-Excitation)-ResNetというハイブリッドネットワークを導入し, 全体的な精度を向上させる。
完全な実装とトレーニングされたネットワークを公開しています。
関連論文リスト
- Diffusion Models as Network Optimizers: Explorations and Analysis [71.69869025878856]
生成拡散モデル(GDM)は,ネットワーク最適化の新しいアプローチとして期待されている。
本研究ではまず,生成モデルの本質的な特徴について考察する。
本稿では,識別的ネットワーク最適化よりも生成モデルの利点を簡潔かつ直感的に示す。
論文 参考訳(メタデータ) (2024-11-01T09:05:47Z) - DiffSG: A Generative Solver for Network Optimization with Diffusion Model [75.27274046562806]
拡散生成モデルはより広い範囲の解を考えることができ、学習パラメータによるより強力な一般化を示す。
拡散生成モデルの本質的な分布学習を利用して高品質な解を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T07:56:21Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Classification of Data Generated by Gaussian Mixture Models Using Deep
ReLU Networks [28.437011792990347]
本稿では,ガウス混合ネットワーク下で発生した$math RMsのデータ二項分類について検討する。
コンバージェンスレートが初めて$d2013xのニューラル解析レートを得る。
結果は、実用的な分類問題におけるディープニューラルネットワークの理論的検証を提供する。
論文 参考訳(メタデータ) (2023-08-15T20:40:42Z) - Does a sparse ReLU network training problem always admit an optimum? [0.0]
最適解の存在は、特にスパースReLUニューラルネットワークの文脈において、必ずしも保証されないことを示す。
特に,特定の疎度パターンを持つディープネットワークにおける最適化問題は,必ずしも最適パラメータを持つとは限らないことを示す。
論文 参考訳(メタデータ) (2023-06-05T08:01:50Z) - Topology Optimization using Neural Networks with Conditioning Field
Initialization for Improved Efficiency [2.575019247624295]
我々は、未最適化領域の事前初期フィールドを使用することで、ニューラルネットワークに基づくトポロジ最適化の効率をさらに向上できることを示す。
我々は、最適化を通じてニューラルネットワークに入力される追加条件付けフィールドとして、初期設計領域で計算されたひずみエネルギー場を用いる。
論文 参考訳(メタデータ) (2023-05-17T07:42:24Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Regularized Training of Intermediate Layers for Generative Models for
Inverse Problems [9.577509224534323]
生成モデルが中間層最適化に基づくアルゴリズムを用いた逆変換を意図している場合、それらの中間層を正規化する方法で訓練すべきである。
我々はこの原理を、中間層最適化(Intermediate Layer Optimization)とMulti-Code GAN(Multi-Code GAN)という、2つの注目すべきインバージョンアルゴリズムのインスタンス化を行う。
これら2つの逆アルゴリズムに対して、新しい正規化GANトレーニングアルゴリズムを導入し、学習した生成モデルがサンプリング比の広い範囲にわたる再構成誤差を低くすることを示した。
論文 参考訳(メタデータ) (2022-03-08T20:30:49Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。