論文の概要: A Generalized Framework for Microstructural Optimization using Neural
Networks
- arxiv url: http://arxiv.org/abs/2207.06512v1
- Date: Wed, 13 Jul 2022 20:19:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-16 07:27:18.272892
- Title: A Generalized Framework for Microstructural Optimization using Neural
Networks
- Title(参考訳): ニューラルネットワークを用いた構造最適化のための一般化フレームワーク
- Authors: Saketh Sridhara, Aaditya Chandrasekhar, Krishnan Suresh
- Abstract要約: 本稿では,微細構造最適化問題を解決するニューラルネットワーク(NN)フレームワークを提案する。
このフレームワークは、マイクロ構造最適化の古典的な密度の定式化に依存しているが、密度場はNNの重みとバイアスによって表される。
このフレームワークは、様々な微構造最適化問題を通して説明されている。
- 参考スコア(独自算出の注目度): 5.104113288544065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Microstructures, i.e., architected materials, are designed today, typically,
by maximizing an objective, such as bulk modulus, subject to a volume
constraint. However, in many applications, it is often more appropriate to
impose constraints on other physical quantities of interest. In this paper, we
consider such generalized microstructural optimization problems where any of
the microstructural quantities, namely, bulk, shear, Poisson ratio, or volume,
can serve as the objective, while the remaining can serve as constraints. In
particular, we propose here a neural-network (NN) framework to solve such
problems. The framework relies on the classic density formulation of
microstructural optimization, but the density field is represented through the
NN's weights and biases. The main characteristics of the proposed NN framework
are: (1) it supports automatic differentiation, eliminating the need for manual
sensitivity derivations, (2) smoothing filters are not required due to implicit
filtering, (3) the framework can be easily extended to multiple-materials, and
(4) a high-resolution microstructural topology can be recovered through a
simple post-processing step. The framework is illustrated through a variety of
microstructural optimization problems.
- Abstract(参考訳): 構造材料、すなわち構造材料は、通常、体積制約を受けるバルク率などの目的を最大化することによって、今日設計されている。
しかし、多くの応用において、他の物理量に対する制約を課すことはより適切である。
本稿では, バルク, せん断, ポアソン比, 体積などのミクロ構造量が目的として機能し, 残りは制約として機能する, 一般化されたマイクロ構造最適化問題を考察する。
特に,そのような問題を解決するニューラルネットワーク(NN)フレームワークを提案する。
この枠組みは構造最適化の古典的な密度定式化に依存しているが、密度場はnnの重みとバイアスによって表される。
提案するNNフレームワークの主な特徴は,(1)自動微分をサポートし,手動感度の導出を必要としないこと,(2)暗黙のフィルタリングによりスムーズなフィルタが不要であること,(3)フレームワークを複数の材料に容易に拡張できること,(4)高分解能のマイクロ構造トポロジーを簡単な後処理ステップで回収できることである。
このフレームワークは、様々な微構造最適化問題を通して説明されている。
関連論文リスト
- Searching for Efficient Linear Layers over a Continuous Space of Structured Matrices [88.33936714942996]
アインシュタイン和を通じて表現可能なすべての線形作用素の探索を可能にする統一フレームワークを提案する。
計算-最適スケーリング法則の違いは主に少数の変数によって支配されていることを示す。
そこで,Mixture-of-Experts (MoE) は,注目ブロックの投影を含む,モデルのすべての線形層におけるMoEを学習する。
論文 参考訳(メタデータ) (2024-10-03T00:44:50Z) - NITO: Neural Implicit Fields for Resolution-free Topology Optimization [7.338114424386579]
トポロジー最適化はエンジニアリング設計において重要な課題であり、そのゴールは、与えられた空間内で物質を最適に分配することである。
深層学習を用いたトポロジ最適化問題を高速化する新しい手法であるニューラルインプリシットトポロジ最適化(NITO)を導入する。
NITOはSOTA拡散モデルに比べて最大7倍の効率で構造を合成する。
論文 参考訳(メタデータ) (2024-02-07T18:27:29Z) - Neural Fields with Hard Constraints of Arbitrary Differential Order [61.49418682745144]
我々は、ニューラルネットワークに厳しい制約を課すための一連のアプローチを開発する。
制約は、ニューラルネットワークとそのデリバティブに適用される線形作用素として指定することができる。
私たちのアプローチは、広範囲の現実世界のアプリケーションで実証されています。
論文 参考訳(メタデータ) (2023-06-15T08:33:52Z) - FluTO: Graded Multiscale Fluid Topology Optimization using Neural
Networks [5.104113288544065]
本研究では,流体流動デバイスの設計のための段階的マルチスケールトポロジ最適化(GMTO)を提案する。
GMTOはマルチスケールトポロジ最適化(MTO)の利点の多くを保持しながら計算を著しく削減する
論文 参考訳(メタデータ) (2022-09-16T20:52:21Z) - Three-dimensional microstructure generation using generative adversarial
neural networks in the context of continuum micromechanics [77.34726150561087]
本研究は, 三次元マイクロ構造生成に適した生成対向ネットワークを提案する。
軽量アルゴリズムは、明示的な記述子を必要とせずに、単一のmicroCTスキャンから材料の基礎特性を学習することができる。
論文 参考訳(メタデータ) (2022-05-31T13:26:51Z) - GM-TOuNN: Graded Multiscale Topology Optimization using Neural Networks [5.104113288544065]
本稿では,ニューラルネットワーク(GM-TOuNN)フレームワークを用いたマルチスケールトポロジ最適化を提案する。
提案するフレームワークは,いくつかの例から説明されている。
論文 参考訳(メタデータ) (2022-04-14T00:34:28Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。