論文の概要: NITO: Neural Implicit Fields for Resolution-free Topology Optimization
- arxiv url: http://arxiv.org/abs/2402.05073v1
- Date: Wed, 7 Feb 2024 18:27:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 14:00:34.351477
- Title: NITO: Neural Implicit Fields for Resolution-free Topology Optimization
- Title(参考訳): NITO:分解能のない位相最適化のためのニューラルネットワーク
- Authors: Amin Heyrani Nobari, Giorgio Giannone, Lyle Regenwetter, Faez Ahmed
- Abstract要約: トポロジー最適化はエンジニアリング設計において重要な課題であり、そのゴールは、与えられた空間内で物質を最適に分配することである。
深層学習を用いたトポロジ最適化問題を高速化する新しい手法であるニューラルインプリシットトポロジ最適化(NITO)を導入する。
NITOはSOTA拡散モデルに比べて最大7倍の効率で構造を合成する。
- 参考スコア(独自算出の注目度): 7.338114424386579
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Topology optimization is a critical task in engineering design, where the
goal is to optimally distribute material in a given space for maximum
performance. We introduce Neural Implicit Topology Optimization (NITO), a novel
approach to accelerate topology optimization problems using deep learning. NITO
stands out as one of the first frameworks to offer a resolution-free and
domain-agnostic solution in deep learning-based topology optimization. NITO
synthesizes structures with up to seven times better structural efficiency
compared to SOTA diffusion models and does so in a tenth of the time. In the
NITO framework, we introduce a novel method, the Boundary Point Order-Invariant
MLP (BPOM), to represent boundary conditions in a sparse and domain-agnostic
manner, moving away from expensive simulation-based approaches. Crucially, NITO
circumvents the domain and resolution limitations that restrict Convolutional
Neural Network (CNN) models to a structured domain of fixed size -- limitations
that hinder the widespread adoption of CNNs in engineering applications. This
generalizability allows a single NITO model to train and generate solutions in
countless domains, eliminating the need for numerous domain-specific CNNs and
their extensive datasets. Despite its generalizability, NITO outperforms SOTA
models even in specialized tasks, is an order of magnitude smaller, and is
practically trainable at high resolutions that would be restrictive for CNNs.
This combination of versatility, efficiency, and performance underlines NITO's
potential to transform the landscape of engineering design optimization
problems through implicit fields.
- Abstract(参考訳): トポロジ最適化はエンジニアリング設計において重要な課題であり、最大性能を得るために与えられた空間に材料を最適に分配することが目的である。
深層学習を用いたトポロジ最適化問題を高速化する新しい手法であるニューラルインプリシットトポロジ最適化(NITO)を導入する。
NITOは、ディープラーニングベースのトポロジ最適化において、解像度のない、ドメインに依存しないソリューションを提供する最初のフレームワークの1つである。
NITOはSOTA拡散モデルに比べて最大7倍構造効率の高い構造を合成し、10分の1の時間で合成する。
NITOフレームワークでは,境界点命令不変量(BPOM)という新しい手法を導入し,境界条件を疎結合かつドメインに依存しない方法で表現し,高価なシミュレーションベースアプローチから脱却する。
重要なこととして、NITOは、CNN(Convolutional Neural Network)モデルを一定のサイズの構造化ドメインに制限するドメインと解決の制限を回避している。
この一般化により、単一のNITOモデルで無数のドメインでのソリューションのトレーニングと生成が可能になり、多数のドメイン固有のCNNとその広範なデータセットが不要になる。
その一般化性にもかかわらず、NITOは特殊タスクでもSOTAモデルより優れており、桁違いに小さく、CNNに制限のある高解像度で訓練可能である。
この汎用性、効率性、性能の組み合わせは、暗黙の場を通してエンジニアリング設計最適化問題の景観を変革するNITOの可能性を基盤としている。
関連論文リスト
- N-Adaptive Ritz Method: A Neural Network Enriched Partition of Unity for
Boundary Value Problems [1.2200609701777907]
本研究は,ニューラルネットワークによる境界値問題を解決するために,ニューラルネットワークに富んだユニティ分割(NN-PU)アプローチを導入する。
NNエンリッチメントは、事前訓練された特徴符号化NNブロックと未訓練NNブロックを組み合わせることで構成される。
提案手法は,従来のメッシュ法に比べて計算コストを低減しつつ,正確な解を提供する。
論文 参考訳(メタデータ) (2024-01-16T18:11:14Z) - Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach [49.1574468325115]
DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:35Z) - Neural Fields with Hard Constraints of Arbitrary Differential Order [61.49418682745144]
我々は、ニューラルネットワークに厳しい制約を課すための一連のアプローチを開発する。
制約は、ニューラルネットワークとそのデリバティブに適用される線形作用素として指定することができる。
私たちのアプローチは、広範囲の現実世界のアプリケーションで実証されています。
論文 参考訳(メタデータ) (2023-06-15T08:33:52Z) - DMF-TONN: Direct Mesh-free Topology Optimization using Neural Networks [4.663709549795511]
本研究では、密度場近似ニューラルネットワークと変位場近似ニューラルネットワークを統合することで、トポロジ最適化を行うための直接メッシュフリー手法を提案する。
この直接積分手法は従来のトポロジ最適化手法に匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2023-05-06T18:04:51Z) - A mechanistic-based data-driven approach to accelerate structural
topology optimization through finite element convolutional neural network
(FE-CNN) [5.469226380238751]
構造トポロジ最適化を高速化するメカニスティックなデータ駆動手法を提案する。
我々のアプローチは、オフライントレーニングとオンライン最適化の2つの段階に分けられる。
数値的な例は、この手法が計算時間で最大1桁の最適化を加速できることを示している。
論文 参考訳(メタデータ) (2021-06-25T14:11:45Z) - NTopo: Mesh-free Topology Optimization using Implicit Neural
Representations [35.07884509198916]
トポロジ最適化問題に対処する新しい機械学習手法を提案する。
我々は多層パーセプトロン(MLP)を用いて密度場と変位場の両方をパラメータ化する。
実験を通じて示すように、私たちのアプローチの大きな利点は、継続的ソリューション空間の自己教師付き学習を可能にすることです。
論文 参考訳(メタデータ) (2021-02-22T05:25:22Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z) - Optimizing Wireless Systems Using Unsupervised and
Reinforced-Unsupervised Deep Learning [96.01176486957226]
無線ネットワークにおけるリソース割り当てとトランシーバーは、通常最適化問題の解決によって設計される。
本稿では,変数最適化と関数最適化の両問題を解くための教師なし・教師なし学習フレームワークを紹介する。
論文 参考訳(メタデータ) (2020-01-03T11:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。