論文の概要: Scalable Deep-Learning-Accelerated Topology Optimization for Additively
Manufactured Materials
- arxiv url: http://arxiv.org/abs/2011.14177v1
- Date: Sat, 28 Nov 2020 17:38:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 19:56:23.971269
- Title: Scalable Deep-Learning-Accelerated Topology Optimization for Additively
Manufactured Materials
- Title(参考訳): 付加材料に対する拡張性深層学習促進トポロジー最適化
- Authors: Sirui Bi, Jiaxin Zhang, Guannan Zhang
- Abstract要約: トポロジー最適化(TO)は、新しい構造、材料、デバイスを設計するための、人気があり強力な計算手法である。
これらの課題に対処するため、SDL-TOと呼ばれる汎用拡張型ディープラーニング(DL)ベースのToフレームワークを提案する。
我々のフレームワークは、反復履歴データを学習し、与えられた設計と勾配のマッピングを同時にトレーニングすることで、TOを加速します。
- 参考スコア(独自算出の注目度): 4.221095652322005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Topology optimization (TO) is a popular and powerful computational approach
for designing novel structures, materials, and devices. Two computational
challenges have limited the applicability of TO to a variety of industrial
applications. First, a TO problem often involves a large number of design
variables to guarantee sufficient expressive power. Second, many TO problems
require a large number of expensive physical model simulations, and those
simulations cannot be parallelized. To address these issues, we propose a
general scalable deep-learning (DL) based TO framework, referred to as SDL-TO,
which utilizes parallel schemes in high performance computing (HPC) to
accelerate the TO process for designing additively manufactured (AM) materials.
Unlike the existing studies of DL for TO, our framework accelerates TO by
learning the iterative history data and simultaneously training on the mapping
between the given design and its gradient. The surrogate gradient is learned by
utilizing parallel computing on multiple CPUs incorporated with a distributed
DL training on multiple GPUs. The learned TO gradient enables a fast online
update scheme instead of an expensive update based on the physical simulator or
solver. Using a local sampling strategy, we achieve to reduce the intrinsic
high dimensionality of the design space and improve the training accuracy and
the scalability of the SDL-TO framework. The method is demonstrated by
benchmark examples and AM materials design for heat conduction. The proposed
SDL-TO framework shows competitive performance compared to the baseline methods
but significantly reduces the computational cost by a speed up of around 8.6x
over the standard TO implementation.
- Abstract(参考訳): トポロジー最適化 (TO) は、新しい構造、材料、デバイスを設計するための一般的な強力な計算手法である。
2つの計算上の課題により、様々な産業応用への適用性が制限された。
第一に、to問題はしばしば十分な表現力を保証するために多くの設計変数を必要とする。
第二に、TO問題の多くは高価な物理モデルシミュレーションを必要とするため、それらのシミュレーションは並列化できない。
これらの問題に対処するために,SDL-TOと呼ばれる拡張性のあるディープラーニング(DL)ベースのTOフレームワークを提案する。
DL for TOの既存の研究とは異なり、我々のフレームワークは反復履歴データを学習し、与えられた設計と勾配のマッピングを同時にトレーニングすることでTOを加速します。
代理勾配は、複数のGPU上で分散DLトレーニングを組み込んだ複数のCPU上で並列計算を利用することで学習される。
learn to gradientは、物理シミュレータやソルバに基づく高価なアップデートではなく、高速なオンライン更新スキームを可能にする。
局所的なサンプリング戦略を用いて,設計空間の内在的な高次元性を低減し,SDL-TOフレームワークのトレーニング精度とスケーラビリティを向上させる。
本手法は, 熱伝導のためのAM材料設計とベンチマーク例で実証した。
提案するsdl-toフレームワークは, ベースライン法に比べて性能は高いが, 計算コストを8.6倍の高速化で大幅に削減する。
関連論文リスト
- Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Enabling Resource-efficient AIoT System with Cross-level Optimization: A
survey [20.360136850102833]
この調査は、より自由なリソースパフォーマンストレードオフのために、より広い最適化スペースを提供することを目的としています。
様々なレベルに散らばる問題やテクニックを統合することで、読者のつながりを理解し、さらなる議論を促すことを目指している。
論文 参考訳(メタデータ) (2023-09-27T08:04:24Z) - Multiplicative update rules for accelerating deep learning training and
increasing robustness [69.90473612073767]
我々は、幅広い機械学習アルゴリズムに適合し、代替の更新ルールを適用することができる最適化フレームワークを提案する。
提案するフレームワークはトレーニングを加速する一方、従来の追加更新ルールとは対照的に、より堅牢なモデルにつながります。
論文 参考訳(メタデータ) (2023-07-14T06:44:43Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Using Gradient to Boost the Generalization Performance of Deep Learning
Models for Fluid Dynamics [0.0]
本稿では,Deep Learningの一般化能力を高めるための新しい研究について述べる。
我々の戦略は、DLネットワークのより良い一般化に向けた良い結果を示している。
論文 参考訳(メタデータ) (2022-10-09T10:20:09Z) - An Adaptive and Scalable ANN-based Model-Order-Reduction Method for
Large-Scale TO Designs [22.35243726859667]
トポロジ最適化(TO)は、興味のある最適な性能で構造設計を得るための体系的なアプローチを提供する。
ディープラーニングベースのモデルは、プロセスの高速化のために開発されている。
MapNetは、粗いスケールから細かいスケールまでの関心領域をマッピングするニューラルネットワークである。
論文 参考訳(メタデータ) (2022-03-20T10:12:24Z) - A Graph Deep Learning Framework for High-Level Synthesis Design Space
Exploration [11.154086943903696]
High-Level Synthesisは、アプリケーション固有の高速プロトタイピングのためのソリューションである。
本稿では,加速性能とハードウェアコストを共同で予測するグラフニューラルネットワークHLSを提案する。
提案手法は,一般的なシミュレータと同等の精度で予測できることを示す。
論文 参考訳(メタデータ) (2021-11-29T18:17:45Z) - Scaling Distributed Deep Learning Workloads beyond the Memory Capacity
with KARMA [58.040931661693925]
冗長な再計算とアウト・オブ・コアの手法を組み合わせた戦略を提案する。
最先端のアウト・オブ・コア手法を用いて,6種類のモデルで平均1.22倍の高速化を実現した。
我々のデータ並列化ソリューションは,Megatron-LMやTurning-NLGといった大規模モデルのトレーニングにおいて,複雑なハイブリッドモデル並列性よりも優れる。
論文 参考訳(メタデータ) (2020-08-26T07:24:34Z) - Hardware Acceleration of Sparse and Irregular Tensor Computations of ML
Models: A Survey and Insights [18.04657939198617]
本稿では,ハードウェアアクセラレータ上での機械学習モデルのスパースおよび不規則テンソル計算の効率的な実行に関する包括的調査を行う。
異なるハードウェア設計とアクセラレーション技術を分析し、ハードウェアと実行コストの観点から分析する。
スパース、不規則形状、量子化テンソルの加速における重要な課題を理解すること。
論文 参考訳(メタデータ) (2020-07-02T04:08:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。