論文の概要: Hysteretic Behavior Simulation Based on Pyramid Neural
Network:Principle, Network Architecture, Case Study and Explanation
- arxiv url: http://arxiv.org/abs/2206.03990v2
- Date: Mon, 19 Jun 2023 15:52:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 06:07:49.617661
- Title: Hysteretic Behavior Simulation Based on Pyramid Neural
Network:Principle, Network Architecture, Case Study and Explanation
- Title(参考訳): ピラミッド型ニューラルネットワークに基づくヒステリック行動シミュレーション:原理,ネットワークアーキテクチャ,ケーススタディ,説明
- Authors: Yongjia Xu, Xinzheng Lu, Yifan Fei, Yuli Huang
- Abstract要約: ニューラルネットワークに基づく代理モデルでは、効率と精度のバランスをとる大きな可能性を示している。
単一レベルの特徴に基づく連続的な情報フローと予測は、ネットワーク性能に悪影響を及ぼす。
ここでは重み付けされたピラミッドニューラルネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An accurate and efficient simulation of the hysteretic behavior of materials
and components is essential for structural analysis. The surrogate model based
on neural networks shows significant potential in balancing efficiency and
accuracy. However, its serial information flow and prediction based on
single-level features adversely affect the network performance. Therefore, a
weighted stacked pyramid neural network architecture is proposed herein. This
network establishes a pyramid architecture by introducing multi-level shortcuts
to integrate features directly in the output module. In addition, a weighted
stacked strategy is proposed to enhance the conventional feature fusion method.
Subsequently, the redesigned architectures are compared with other commonly
used network architectures. Results show that the redesigned architectures
outperform the alternatives in 87.5% of cases. Meanwhile, the long and
short-term memory abilities of different basic network architectures are
analyzed through a specially designed experiment, which could provide valuable
suggestions for network selection.
- Abstract(参考訳): 構造解析には材料・成分の履歴挙動の高精度かつ効率的なシミュレーションが不可欠である。
ニューラルネットワークに基づくサーロゲートモデルは、効率と精度のバランスをとる可能性を示す。
しかし、そのシリアル情報の流れとシングルレベル特徴に基づく予測はネットワーク性能に悪影響を及ぼす。
したがって、重み付けされたピラミッドニューラルネットワークアーキテクチャを提案する。
このネットワークは、出力モジュールに機能を直接統合するマルチレベルショートカットを導入することで、ピラミッドアーキテクチャを確立する。
さらに,従来の特徴融合法を強化するため,重み付き積み重ね戦略を提案する。
その後、再設計されたアーキテクチャは他の一般的なネットワークアーキテクチャと比較される。
結果は再設計されたアーキテクチャが87.5%のケースで代替案を上回ることを示している。
一方、異なる基本ネットワークアーキテクチャの長期および短期記憶能力は、特別に設計された実験を通して分析され、ネットワーク選択に有用な提案を与える。
関連論文リスト
- Neuromorphic on-chip reservoir computing with spiking neural network architectures [0.562479170374811]
貯留層コンピューティングは、リカレントニューラルネットワークの計算能力を活用するための有望なアプローチである。
本稿では,貯水池計算フレームワークにおける統合・火災ニューロンの2つのタスクへの適用について検討する。
本稿では,IntelのニューロモーフィックコンピューティングソフトウェアフレームワークであるLavaと,Loihiのオンチップ実装を用いて,独自の統合・ファイアコードを用いた貯水池計算性能について検討する。
論文 参考訳(メタデータ) (2024-07-30T05:05:09Z) - Mechanistic Design and Scaling of Hybrid Architectures [114.3129802943915]
我々は、様々な計算プリミティブから構築された新しいハイブリッドアーキテクチャを特定し、テストする。
本研究では,大規模計算最適法則と新しい状態最適スケーリング法則解析を用いて,結果のアーキテクチャを実験的に検証する。
我々は,MAD合成法と計算-最適パープレキシティを相関させ,新しいアーキテクチャの正確な評価を可能にする。
論文 参考訳(メタデータ) (2024-03-26T16:33:12Z) - Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Set-based Neural Network Encoding Without Weight Tying [91.37161634310819]
本稿では,ネットワーク特性予測のためのニューラルネットワーク重み符号化手法を提案する。
我々のアプローチは、混合アーキテクチャのモデル動物園でニューラルネットワークを符号化することができる。
ニューラルネットワークのプロパティ予測には,クロスデータセットとクロスアーキテクチャという,2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-05-26T04:34:28Z) - Analyze and Design Network Architectures by Recursion Formulas [4.085771561472743]
この研究は、新しいネットワークアーキテクチャを設計するための効果的な方法を見つけ出そうとする。
ネットワークアーキテクチャの主な違いは,それらの公式に反映できることが判明した。
ResNetに基づいた改良されたアーキテクチャを生成するためのケーススタディが提供されている。
CIFARとImageNetで大規模な実験が行われ、大幅なパフォーマンス改善が見られた。
論文 参考訳(メタデータ) (2021-08-18T06:53:30Z) - An End to End Network Architecture for Fundamental Matrix Estimation [14.297068346634351]
ステレオ画像から直接基本行列を推定する新しいエンドツーエンドネットワークアーキテクチャを提案する。
画像内の対応関係を見つけ、外乱の拒絶を行い、基本行列を計算するための異なるディープニューラルネットワークを、エンドツーエンドのネットワークアーキテクチャに統合する。
論文 参考訳(メタデータ) (2020-10-29T12:48:43Z) - Adversarially Robust Neural Architectures [43.74185132684662]
本稿では,NASフレームワークを用いたアーキテクチャの観点から,ネットワークの対角的ロバスト性を改善することを目的とする。
本稿では, 対向ロバスト性, リプシッツ定数, アーキテクチャパラメータの関係について検討する。
提案アルゴリズムは,異なるデータセットに対する様々な攻撃の下で,すべてのモデルの中で最高の性能を実証的に達成する。
論文 参考訳(メタデータ) (2020-09-02T08:52:15Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - The Heterogeneity Hypothesis: Finding Layer-Wise Differentiated Network
Architectures [179.66117325866585]
我々は、通常見過ごされる設計空間、すなわち事前定義されたネットワークのチャネル構成を調整することを検討する。
この調整は、拡張ベースラインネットワークを縮小することで実現でき、性能が向上する。
画像分類、視覚追跡、画像復元のための様々なネットワークとデータセットで実験を行う。
論文 参考訳(メタデータ) (2020-06-29T17:59:26Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。