論文の概要: SuperMeshing: A New Deep Learning Architecture for Increasing the Mesh
Density of Metal Forming Stress Field with Attention Mechanism and Perceptual
Features
- arxiv url: http://arxiv.org/abs/2104.09276v1
- Date: Fri, 12 Mar 2021 06:02:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-08 08:24:24.181561
- Title: SuperMeshing: A New Deep Learning Architecture for Increasing the Mesh
Density of Metal Forming Stress Field with Attention Mechanism and Perceptual
Features
- Title(参考訳): supermeshing: 注意機構と知覚的特徴を備えた金属成形応力場のメッシュ密度を高めるための新しいディープラーニングアーキテクチャ
- Authors: Qingfeng Xu, Zhenguo Nie, Handing Xu, Haosu Zhou, Xinjun Liu
- Abstract要約: 我々はSuperMeshingNetという新しいデータ駆動メッシュ密度向上モデルを提案する。
ディープラーニングモデルへの入力としてメッシュ密度の低い有限要素解析(FEA)の利点を強化する。
線形法を適用したベースラインと比較して、SuperMeshingNetはテストデータの平均二乗誤差(MSE)と平均絶対誤差(MAE)を顕著に低減する。
- 参考スコア(独自算出の注目度): 1.0660502023086995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In stress field analysis, the finite element analysis is a crucial approach,
in which the mesh-density has a significant impact on the results. High mesh
density usually contributes authentic to simulation results but costs more
computing resources, leading to curtailing efficiency during the design
process. To eliminate this drawback, we propose a new data-driven mesh-density
boost model named SuperMeshingNet that strengthens the advantages of finite
element analysis (FEA) with low mesh-density as inputs to the deep learning
model, which consisting of Res-UNet architecture, to acquire high-density
stress field instantaneously, shortening computing time and cost automatically.
Moreover, the attention mechanism and the perceptual features are utilized,
enhancing the performance of SuperMeshingNet. Compared to the baseline that
applied the linear interpolation method, SuperMeshingNet achieves a prominent
reduction in the mean squared error (MSE) and mean absolute error (MAE) on test
data, which contains prior unseen cases. Based on the data set of metal
forming, the comparable experiments are proceeded to demonstrate the high
quality and superior precision of the reconstructed results generated by our
model. The well-trained model can successfully show more excellent performance
than the baseline and other methods on the multiple scaled mesh-density,
including $2\times$, $4\times$, and $8\times$. With the refined result owning
broaden scaling of mesh density and high precision, the FEA process can be
accelerated with seldom cost on computation resources. We publicly share our
work with full detail of implementation at
https://github.com/zhenguonie/2021_SuperMeshing_2D_Metal_Forming
- Abstract(参考訳): 応力場解析において、有限要素解析は、メッシュ密度が結果に重大な影響を与える重要なアプローチである。
高いメッシュ密度はシミュレーション結果の信頼性に寄与するが、計算リソースのコストが高くなるため、設計プロセスにおける効率が低下する。
この欠点を解消するために、res-unetアーキテクチャからなるディープラーニングモデルへの入力として、メッシュ密度の低い有限要素解析(fea)の利点を強化し、高密度応力場を瞬時に取得し、計算時間とコストを自動的に短縮するsupermeshingnetという新しいデータ駆動型メッシュ密度促進モデルを提案する。
さらに、注意機構と知覚的特徴を活用し、SuperMeshingNetの性能を向上させる。
線形補間法を適用したベースラインと比較して, SuperMeshingNetは, 未確認ケースを含むテストデータに対する平均二乗誤差 (MSE) と平均絶対誤差 (MAE) の顕著な低減を実現している。
金属成形のデータセットに基づいて, モデルにより生成された再構成結果の高品質かつ優れた精度を示す実験を行った。
このよく訓練されたモデルは、複数のスケールされたメッシュ密度のベースラインや他の方法よりも優れたパフォーマンスを示すことができる。
メッシュ密度の広範化と高精度化を両立させることにより,feaプロセスは計算資源のコストをほとんど必要とせずに高速化することができる。
実装の詳細はhttps://github.com/zhenguonie/2021_SuperMeshing_2D_Metal_Formingで公開しています。
関連論文リスト
- Reinforcement Learning as a Parsimonious Alternative to Prediction
Cascades: A Case Study on Image Segmentation [6.576180048533476]
PaSeR(Parsimonious with Reinforcement Learning)は、非スケーリングでコストを意識した学習パイプラインである。
ケースドモデルと比較して計算コストを最小化しながら,PaSeRの精度が向上することを示す。
コストと性能のバランスを評価するため,新しい指標IoU/GigaFlopを導入する。
論文 参考訳(メタデータ) (2024-02-19T01:17:52Z) - Accelerating Deep Neural Networks via Semi-Structured Activation
Sparsity [0.0]
ネットワークの機能マップにスパシティを爆発させることは、推論のレイテンシを低減する方法の1つです。
そこで本研究では,セミ構造化されたアクティベーション空間を小さなランタイム修正によって活用する手法を提案する。
当社のアプローチでは,ImageNetデータセット上のResNet18モデルに対して,最小精度が1.1%の1.25倍の速度向上を実現している。
論文 参考訳(メタデータ) (2023-09-12T22:28:53Z) - Conformal Predictions Enhanced Expert-guided Meshing with Graph Neural
Networks [8.736819316856748]
本稿では,GNN(Graph Neural Networks)とエキスパートガイダンスを用いて,航空機モデルのためのCFDメッシュの自動生成を行う機械学習方式を提案する。
曲面分類のための2つの最先端モデルであるPointNet++とPointMLPより優れた3次元分割アルゴリズムを提案する。
また,3次元メッシュ分割モデルからCAD表面への射影予測を共形予測法を用いて提案する手法を提案する。
論文 参考訳(メタデータ) (2023-08-14T14:39:13Z) - Proximal Symmetric Non-negative Latent Factor Analysis: A Novel Approach
to Highly-Accurate Representation of Undirected Weighted Networks [2.1797442801107056]
Undirected Weighted Network (UWN) は、ビッグデータ関連のアプリケーションで一般的に見られる。
既存のモデルは本質対称性や低データ密度のモデル化に失敗する。
近軸対称非負の潜在因子分析モデルを提案する。
論文 参考訳(メタデータ) (2023-06-06T13:03:24Z) - Distributed Pruning Towards Tiny Neural Networks in Federated Learning [12.63559789381064]
FedTinyは、フェデレートラーニングのための分散プルーニングフレームワークである。
メモリとコンピューティングに制約のあるデバイスのための、特殊な小さなモデルを生成する。
2.61%の精度向上を実現し、計算コストを95.91%削減した。
論文 参考訳(メタデータ) (2022-12-05T01:58:45Z) - MultiScale MeshGraphNets [65.26373813797409]
我々はMeshGraphNetsからフレームワークを改善するための2つの補完的なアプローチを提案する。
まず、より粗いメッシュ上で高解像度システムの正確なサロゲートダイナミクスを学習できることを実証する。
次に、2つの異なる解像度でメッセージを渡す階層的アプローチ(MultiScale MeshGraphNets)を導入する。
論文 参考訳(メタデータ) (2022-10-02T20:16:20Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Toward fast and accurate human pose estimation via soft-gated skip
connections [97.06882200076096]
本稿では,高精度かつ高効率な人間のポーズ推定について述べる。
我々は、最先端技術よりも精度と効率を両立させる文脈において、この設計選択を再分析する。
本モデルでは,MPII と LSP のデータセットから最先端の結果が得られる。
論文 参考訳(メタデータ) (2020-02-25T18:51:51Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。