論文の概要: GM-TOuNN: Graded Multiscale Topology Optimization using Neural Networks
- arxiv url: http://arxiv.org/abs/2204.06682v1
- Date: Thu, 14 Apr 2022 00:34:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-16 02:45:36.110785
- Title: GM-TOuNN: Graded Multiscale Topology Optimization using Neural Networks
- Title(参考訳): gm-tounn:ニューラルネットワークを用いたグレードドドマルチスケールトポロジ最適化
- Authors: Aaditya Chandrasekhar, Saketh Sridhara, Krishnan Suresh
- Abstract要約: 本稿では,ニューラルネットワーク(GM-TOuNN)フレームワークを用いたマルチスケールトポロジ最適化を提案する。
提案するフレームワークは,いくつかの例から説明されている。
- 参考スコア(独自算出の注目度): 5.104113288544065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multiscale topology optimization (M-TO) entails generating an optimal global
topology, and an optimal set of microstructures at a smaller scale, for a
physics-constrained problem. With the advent of additive manufacturing, M-TO
has gained significant prominence. However, generating optimal microstructures
at various locations can be computationally very expensive. As an alternate,
graded multiscale topology optimization (GM-TO) has been proposed where one or
more pre-selected and graded (parameterized) microstructural topologies are
used to fill the domain optimally. This leads to a significant reduction in
computation while retaining many of the benefits of M-TO.
A successful GM-TO framework must: (1) be capable of efficiently handling
numerous pre-selected microstructures, (2) be able to continuously switch
between these microstructures during optimization, (3) ensure that the
partition of unity is satisfied, and (4) discourage microstructure mixing at
termination.
In this paper, we propose to meet these requirements by exploiting the unique
classification capacity of neural networks. Specifically, we propose a graded
multiscale topology optimization using neural-network (GM-TOuNN) framework with
the following features: (1) the number of design variables is only weakly
dependent on the number of pre-selected microstructures, (2) it guarantees
partition of unity while discouraging microstructure mixing, and (3) it
supports automatic differentiation, thereby eliminating manual sensitivity
analysis. The proposed framework is illustrated through several examples.
- Abstract(参考訳): マルチスケールトポロジ最適化(M-TO)は、物理制約問題に対して最適な大域的トポロジと、より小さなスケールで最適なマイクロ構造を生成する。
添加物製造の出現により、M-TOは著しく有名になった。
しかし、様々な場所で最適なマイクロ構造を生成するのは非常にコストがかかる。
1つ以上の事前選択された(パラメータ化された)マイクロ構造トポロジを用いてドメインを最適に埋める、別のグレード付きマルチスケールトポロジ最適化(GM-TO)が提案されている。
これにより、M-TOの利点の多くを保ちながら、計算量が大幅に削減される。
GM-TO フレームワークを成功させるには,(1) 多数の事前選択されたマイクロ構造を効率的に処理でき,(2) 最適化中に連続的にこれらのマイクロ構造を切り替えることができること,(3) ユニティの分割が満足されること,(4) 終了時にマイクロ構造が混合されないこと,などが必要である。
本稿では,ニューラルネットワークのユニークな分類能力を利用して,これらの要件を満たすことを提案する。
具体的には, ニューラルネットワーク (GM-TOuNN) フレームワークを用いた段階的マルチスケールトポロジー最適化を提案する。(1) 設計変数の数は, 予め選択したマイクロ構造の数にのみ依存し, (2) マイクロ構造混合を阻害しながらユニティの分割を保証し, (3) 自動微分をサポートし, 手動感度解析を不要にする。
提案するフレームワークについては,いくつかの例を挙げる。
関連論文リスト
- Searching for Efficient Linear Layers over a Continuous Space of Structured Matrices [88.33936714942996]
アインシュタイン和を通じて表現可能なすべての線形作用素の探索を可能にする統一フレームワークを提案する。
計算-最適スケーリング法則の違いは主に少数の変数によって支配されていることを示す。
そこで,Mixture-of-Experts (MoE) は,注目ブロックの投影を含む,モデルのすべての線形層におけるMoEを学習する。
論文 参考訳(メタデータ) (2024-10-03T00:44:50Z) - SequentialAttention++ for Block Sparsification: Differentiable Pruning
Meets Combinatorial Optimization [24.55623897747344]
ニューラルネットワークプルーニングは、大規模で拡張性があり、解釈可能で、一般化可能なモデルを構築するための重要な技術である。
群スパース最適化の非正規化として,既存の微分可能なプルーニング手法がいくつあるかを示す。
我々は、ImageNetとCriteoデータセット上の大規模ニューラルネットワークブロックワイドプルーニングタスクの最先端技術であるSequentialAttention++を提案する。
論文 参考訳(メタデータ) (2024-02-27T21:42:18Z) - Dynamically configured physics-informed neural network in topology
optimization applications [4.403140515138818]
物理インフォームドニューラルネットワーク(PINN)は、前方問題を解決する際に大量のデータを生成するのを避けることができる。
動的に構成された PINN-based Topology Optimization (DCPINN-TO) 法を提案する。
変位予測と最適化結果の精度は,DCPINN-TO法が効率的かつ効率的であることを示している。
論文 参考訳(メタデータ) (2023-12-12T05:35:30Z) - An Expandable Machine Learning-Optimization Framework to Sequential
Decision-Making [0.0]
逐次的意思決定問題を効率的に解決する統合予測最適化(PredOpt)フレームワークを提案する。
本稿では,機械学習(ML)における逐次依存,実現可能性,一般化といった課題に対処し,インスタンス問題に対する最適解の予測を行う。
論文 参考訳(メタデータ) (2023-11-12T21:54:53Z) - FluTO: Graded Multiscale Fluid Topology Optimization using Neural
Networks [5.104113288544065]
本研究では,流体流動デバイスの設計のための段階的マルチスケールトポロジ最適化(GMTO)を提案する。
GMTOはマルチスケールトポロジ最適化(MTO)の利点の多くを保持しながら計算を著しく削減する
論文 参考訳(メタデータ) (2022-09-16T20:52:21Z) - A Generalized Framework for Microstructural Optimization using Neural
Networks [5.104113288544065]
本稿では,微細構造最適化問題を解決するニューラルネットワーク(NN)フレームワークを提案する。
このフレームワークは、マイクロ構造最適化の古典的な密度の定式化に依存しているが、密度場はNNの重みとバイアスによって表される。
このフレームワークは、様々な微構造最適化問題を通して説明されている。
論文 参考訳(メタデータ) (2022-07-13T20:19:16Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - Optimization-Inspired Learning with Architecture Augmentations and
Control Mechanisms for Low-Level Vision [74.9260745577362]
本稿では,GDC(Generative, Discriminative, and Corrective)の原則を集約する,最適化に着想を得た統合学習フレームワークを提案する。
フレキシブルな組み合わせで最適化モデルを効果的に解くために,3つのプロパゲーティブモジュールを構築した。
低レベル視覚タスクにおける実験は、GDCの有効性と適応性を検証する。
論文 参考訳(メタデータ) (2020-12-10T03:24:53Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。