論文の概要: Adapting U-Net for linear elastic stress estimation in polycrystal Zr
microstructures
- arxiv url: http://arxiv.org/abs/2303.08541v1
- Date: Wed, 15 Mar 2023 11:36:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 18:17:36.442284
- Title: Adapting U-Net for linear elastic stress estimation in polycrystal Zr
microstructures
- Title(参考訳): 多結晶Zr組織における線形弾性応力推定のための適応U-Net
- Authors: J. D. Langcaster, D. S. Balint and M. R. Wenman
- Abstract要約: U-Net畳み込みニューラルネットワークアーキテクチャの変種として, a-Zr(hcp)多結晶結晶粒構造における線形弾性適合応力を推定する手法を提案する。
ネットワーク性能は粒状構造規則性やテクスチャと相関せず,任意のZr結晶構造にトレーニングセットを超えたネットワークの一般化を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A variant of the U-Net convolutional neural network architecture is proposed
to estimate linear elastic compatibility stresses in a-Zr (hcp) polycrystalline
grain structures. Training data was generated using VGrain software with a
regularity alpha of 0.73 and uniform random orientation for the grain
structures and ABAQUS to evaluate the stress welds using the finite element
method. The initial dataset contains 200 samples with 20 held from training for
validation. The network gives speedups of around 200x to 6000x using a CPU or
GPU, with signifcant memory savings, compared to finite element analysis with a
modest reduction in accuracy of up to 10%. Network performance is not
correlated with grain structure regularity or texture, showing generalisation
of the network beyond the training set to arbitrary Zr crystal structures.
Performance when trained with 200 and 400 samples was measured, finding an
improvement in accuracy of approximately 10% when the size of the dataset was
doubled.
- Abstract(参考訳): U-Net畳み込みニューラルネットワークアーキテクチャの変種として, a-Zr(hcp)多結晶結晶粒構造における線形弾性適合応力を推定する手法を提案する。
有限要素法による応力溶接の評価のために, 正則アルファ0.73のVGrainソフトウェアと粒状構造物のランダムな配向, ABAQUSを用いてトレーニングデータを生成した。
最初のデータセットには200のサンプルが含まれ、20のサンプルが検証のためにトレーニングから保持されている。
ネットワークはCPUやGPUを使って約200倍から6000倍のスピードアップを実現し、最大10%の精度で最小限の精度で有限要素解析を行う。
ネットワーク性能は粒状構造規則性やテクスチャと相関せず,任意のZr結晶構造にトレーニングセットを超えたネットワークの一般化を示す。
200と400のサンプルでトレーニングされた場合のパフォーマンスを測定し、データセットのサイズが倍になった場合の精度が約10%向上した。
関連論文リスト
- TENNs-PLEIADES: Building Temporal Kernels with Orthogonal Polynomials [1.1970409518725493]
低レイテンシでオンライン分類と検出を行うために、これらのネットワークをイベントベースのデータで相互接続することに重点を置いている。
我々は3つのイベントベースのベンチマークを実験し、メモリと計算コストを大幅に削減した大きなマージンで3つすべてに対して最先端の結果を得た。
論文 参考訳(メタデータ) (2024-05-20T17:06:24Z) - Hardware-aware Training Techniques for Improving Robustness of Ex-Situ
Neural Network Transfer onto Passive TiO2 ReRAM Crossbars [0.8553766625486795]
ドロップアウト, 再パラメータ化トリック, TiO2クロスバー変数の正規化といった手法を応用したトレーニング手法を提案する。
提案手法を用いてトレーニングされたニューラルネットワークでは、テストセットのデータポイントの79.5%を95%以上の精度で分類することができる。
論文 参考訳(メタデータ) (2023-05-29T13:55:02Z) - Dynamic Sparse Training with Structured Sparsity [11.778353786208765]
ダイナミックスパーストレーニング(DST)法は、スパースニューラルネットワークトレーニングにおいて最先端の結果を達成する。
本研究では, 微細構造N:M空間の変形を学習するために, スパース・ツー・スパースDST法, Structured RigL (SRigL)を提案する。
オンライン推論用CPUでは3.4x/2.5x、GPUでは1.7x/13.0x、バッチサイズは256である。
論文 参考訳(メタデータ) (2023-05-03T17:48:55Z) - Continual Spatio-Temporal Graph Convolutional Networks [87.86552250152872]
時空間グラフ畳み込みニューラルネットワークを連続推論ネットワークとして再構成する。
オンライン推論において、最大109倍の時間複雑性、26倍のハードウェアアクセラレーション、最大割り当てメモリの最大52%の削減を観測した。
論文 参考訳(メタデータ) (2022-03-21T14:23:18Z) - Convolutional Network Fabric Pruning With Label Noise [0.0]
本稿では,コンボリューショナル・ネットワーク・ファブリック(CNF)に対して,ノイズの多いトレーニングやテストデータの存在下で反復的プルーニング戦略を提案する。
固有の構造と機能のため、畳み込みネットワークファブリックは刈り込みの理想的な候補である。
論文 参考訳(メタデータ) (2022-02-15T09:24:08Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Graph Convolutional Neural Networks for Body Force Prediction [0.0]
グラフベースのデータ駆動モデルを示し、非構造化メッシュ上で定義されたフィールドの推論を行う。
ネットワークは、異なる解像度のフィールドサンプルから推論することができ、各サンプルの測定結果が提示される順序に不変である。
論文 参考訳(メタデータ) (2020-12-03T19:53:47Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - Dynamic R-CNN: Towards High Quality Object Detection via Dynamic
Training [70.2914594796002]
ラベル割り当て基準と回帰損失関数の形状を調整するための動的R-CNNを提案する。
我々はResNet-50-FPNベースラインを1.9%のAPと5.5%のAP$_90$で改善し、余分なオーバーヘッドを伴わない。
論文 参考訳(メタデータ) (2020-04-13T15:20:25Z) - Revealing the Structure of Deep Neural Networks via Convex Duality [70.15611146583068]
我々は,正規化深層ニューラルネットワーク(DNN)について検討し,隠蔽層の構造を特徴付ける凸解析フレームワークを導入する。
正規正規化学習問題に対する最適隠蔽層重みの集合が凸集合の極点として明確に見出されることを示す。
ホワイトデータを持つ深部ReLUネットワークに同じ特徴を応用し、同じ重み付けが成り立つことを示す。
論文 参考訳(メタデータ) (2020-02-22T21:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。