論文の概要: Scalable Deep-Learning-Accelerated Topology Optimization for Additively
Manufactured Materials
- arxiv url: http://arxiv.org/abs/2011.14177v1
- Date: Sat, 28 Nov 2020 17:38:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 19:56:23.971269
- Title: Scalable Deep-Learning-Accelerated Topology Optimization for Additively
Manufactured Materials
- Title(参考訳): 付加材料に対する拡張性深層学習促進トポロジー最適化
- Authors: Sirui Bi, Jiaxin Zhang, Guannan Zhang
- Abstract要約: トポロジー最適化(TO)は、新しい構造、材料、デバイスを設計するための、人気があり強力な計算手法である。
これらの課題に対処するため、SDL-TOと呼ばれる汎用拡張型ディープラーニング(DL)ベースのToフレームワークを提案する。
我々のフレームワークは、反復履歴データを学習し、与えられた設計と勾配のマッピングを同時にトレーニングすることで、TOを加速します。
- 参考スコア(独自算出の注目度): 4.221095652322005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Topology optimization (TO) is a popular and powerful computational approach
for designing novel structures, materials, and devices. Two computational
challenges have limited the applicability of TO to a variety of industrial
applications. First, a TO problem often involves a large number of design
variables to guarantee sufficient expressive power. Second, many TO problems
require a large number of expensive physical model simulations, and those
simulations cannot be parallelized. To address these issues, we propose a
general scalable deep-learning (DL) based TO framework, referred to as SDL-TO,
which utilizes parallel schemes in high performance computing (HPC) to
accelerate the TO process for designing additively manufactured (AM) materials.
Unlike the existing studies of DL for TO, our framework accelerates TO by
learning the iterative history data and simultaneously training on the mapping
between the given design and its gradient. The surrogate gradient is learned by
utilizing parallel computing on multiple CPUs incorporated with a distributed
DL training on multiple GPUs. The learned TO gradient enables a fast online
update scheme instead of an expensive update based on the physical simulator or
solver. Using a local sampling strategy, we achieve to reduce the intrinsic
high dimensionality of the design space and improve the training accuracy and
the scalability of the SDL-TO framework. The method is demonstrated by
benchmark examples and AM materials design for heat conduction. The proposed
SDL-TO framework shows competitive performance compared to the baseline methods
but significantly reduces the computational cost by a speed up of around 8.6x
over the standard TO implementation.
- Abstract(参考訳): トポロジー最適化 (TO) は、新しい構造、材料、デバイスを設計するための一般的な強力な計算手法である。
2つの計算上の課題により、様々な産業応用への適用性が制限された。
第一に、to問題はしばしば十分な表現力を保証するために多くの設計変数を必要とする。
第二に、TO問題の多くは高価な物理モデルシミュレーションを必要とするため、それらのシミュレーションは並列化できない。
これらの問題に対処するために,SDL-TOと呼ばれる拡張性のあるディープラーニング(DL)ベースのTOフレームワークを提案する。
DL for TOの既存の研究とは異なり、我々のフレームワークは反復履歴データを学習し、与えられた設計と勾配のマッピングを同時にトレーニングすることでTOを加速します。
代理勾配は、複数のGPU上で分散DLトレーニングを組み込んだ複数のCPU上で並列計算を利用することで学習される。
learn to gradientは、物理シミュレータやソルバに基づく高価なアップデートではなく、高速なオンライン更新スキームを可能にする。
局所的なサンプリング戦略を用いて,設計空間の内在的な高次元性を低減し,SDL-TOフレームワークのトレーニング精度とスケーラビリティを向上させる。
本手法は, 熱伝導のためのAM材料設計とベンチマーク例で実証した。
提案するsdl-toフレームワークは, ベースライン法に比べて性能は高いが, 計算コストを8.6倍の高速化で大幅に削減する。
関連論文リスト
- SLaNC: Static LayerNorm Calibration [1.2016264781280588]
より精度の低いフォーマットへの量子化は、利用可能な値表現の限られた範囲によって引き起こされる多くの課題を自然に引き起こす。
本稿では,推論中のTransformerモデルに容易に適用可能な,計算効率のよいスケーリング手法を提案する。
提案手法は,直近の線形層の静的重みに基づくLayerNorm入力のスケーリング方法を提案する。
論文 参考訳(メタデータ) (2024-10-14T14:32:55Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Inference Optimization of Foundation Models on AI Accelerators [68.24450520773688]
トランスフォーマーアーキテクチャを備えた大規模言語モデル(LLM)を含む強力な基礎モデルは、ジェネレーティブAIの新たな時代を支えている。
モデルパラメータの数が数十億に達すると、実際のシナリオにおける推論コストと高いレイテンシーが排除される。
このチュートリアルでは、AIアクセラレータを用いた補完推論最適化テクニックに関する包括的な議論を行っている。
論文 参考訳(メタデータ) (2024-07-12T09:24:34Z) - Mechanistic Design and Scaling of Hybrid Architectures [114.3129802943915]
我々は、様々な計算プリミティブから構築された新しいハイブリッドアーキテクチャを特定し、テストする。
本研究では,大規模計算最適法則と新しい状態最適スケーリング法則解析を用いて,結果のアーキテクチャを実験的に検証する。
我々は,MAD合成法と計算-最適パープレキシティを相関させ,新しいアーキテクチャの正確な評価を可能にする。
論文 参考訳(メタデータ) (2024-03-26T16:33:12Z) - Multiplicative update rules for accelerating deep learning training and
increasing robustness [69.90473612073767]
我々は、幅広い機械学習アルゴリズムに適合し、代替の更新ルールを適用することができる最適化フレームワークを提案する。
提案するフレームワークはトレーニングを加速する一方、従来の追加更新ルールとは対照的に、より堅牢なモデルにつながります。
論文 参考訳(メタデータ) (2023-07-14T06:44:43Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Using Gradient to Boost the Generalization Performance of Deep Learning
Models for Fluid Dynamics [0.0]
本稿では,Deep Learningの一般化能力を高めるための新しい研究について述べる。
我々の戦略は、DLネットワークのより良い一般化に向けた良い結果を示している。
論文 参考訳(メタデータ) (2022-10-09T10:20:09Z) - An Adaptive and Scalable ANN-based Model-Order-Reduction Method for
Large-Scale TO Designs [22.35243726859667]
トポロジ最適化(TO)は、興味のある最適な性能で構造設計を得るための体系的なアプローチを提供する。
ディープラーニングベースのモデルは、プロセスの高速化のために開発されている。
MapNetは、粗いスケールから細かいスケールまでの関心領域をマッピングするニューラルネットワークである。
論文 参考訳(メタデータ) (2022-03-20T10:12:24Z) - A Graph Deep Learning Framework for High-Level Synthesis Design Space
Exploration [11.154086943903696]
High-Level Synthesisは、アプリケーション固有の高速プロトタイピングのためのソリューションである。
本稿では,加速性能とハードウェアコストを共同で予測するグラフニューラルネットワークHLSを提案する。
提案手法は,一般的なシミュレータと同等の精度で予測できることを示す。
論文 参考訳(メタデータ) (2021-11-29T18:17:45Z) - Hardware Acceleration of Sparse and Irregular Tensor Computations of ML
Models: A Survey and Insights [18.04657939198617]
本稿では,ハードウェアアクセラレータ上での機械学習モデルのスパースおよび不規則テンソル計算の効率的な実行に関する包括的調査を行う。
異なるハードウェア設計とアクセラレーション技術を分析し、ハードウェアと実行コストの観点から分析する。
スパース、不規則形状、量子化テンソルの加速における重要な課題を理解すること。
論文 参考訳(メタデータ) (2020-07-02T04:08:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。