論文の概要: Sparse deep neural networks for modeling aluminum electrolysis dynamics
- arxiv url: http://arxiv.org/abs/2209.05832v1
- Date: Tue, 13 Sep 2022 09:11:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-14 13:14:09.682533
- Title: Sparse deep neural networks for modeling aluminum electrolysis dynamics
- Title(参考訳): アルミニウム電解ダイナミクスモデリングのためのスパースディープニューラルネットワーク
- Authors: Erlend Torje Berg Lundby, Adil Rasheed, Ivar Johan Halvorsen, Jan
Tommy Gravdahl
- Abstract要約: 我々は、アルミニウム電解シミュレータのシステムダイナミクスをモデル化するためにスパースニューラルネットワークを訓練する。
スパースモデル構造は、対応する高密度ニューラルネットワークと比較して、モデル複雑さを著しく低減する。
実験により、スパースモデルが高密度ニューラルネットワークよりも小さなトレーニングセットからより一般化されることが示されている。
- 参考スコア(独自算出の注目度): 0.5257115841810257
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial neural networks have a broad array of applications today due to
their high degree of flexibility and ability to model nonlinear functions from
data. However, the trustworthiness of neural networks is limited due to their
black-box nature, their poor ability to generalize from small datasets, and
their inconsistent convergence during training. Aluminum electrolysis is a
complex nonlinear process with many interrelated sub-processes. Artificial
neural networks can potentially be well suited for modeling the aluminum
electrolysis process, but the safety-critical nature of this process requires
trustworthy models. In this work, sparse neural networks are trained to model
the system dynamics of an aluminum electrolysis simulator. The sparse model
structure has a significantly reduction in model complexity compared to a
corresponding dense neural network. We argue that this makes the model more
interpretable. Furthermore, the empirical study shows that the sparse models
generalize better from small training sets than dense neural networks.
Moreover, training an ensemble of sparse neural networks with different
parameter initializations show that the models converge to similar model
structures with similar learned input features.
- Abstract(参考訳): 人工ニューラルネットワークは、データから非線形関数をモデル化する柔軟性と能力が高いため、今日では幅広い応用がある。
しかしながら、ニューラルネットワークの信頼性は、ブラックボックスの性質、小さなデータセットから一般化する能力の不足、トレーニング中の一貫性のない収束などによって制限されている。
アルミニウム電解は、多くの相互関連サブプロセスを持つ複雑な非線形過程である。
人工ニューラルネットワークは、アルミニウム電解プロセスのモデリングに適する可能性があるが、このプロセスの安全性-クリティカルな性質には、信頼できるモデルが必要である。
本研究では,アルミニウム電解シミュレータのシステムダイナミクスをモデル化するために,スパースニューラルネットワークを訓練する。
スパースモデル構造は、対応する高密度ニューラルネットワークと比較してモデル複雑性を著しく低減する。
これがモデルをより解釈可能であると我々は主張する。
さらに, 実験により, 分散モデルが密集したニューラルネットワークよりも小さなトレーニングセットから一般化できることが示されている。
さらに、パラメータ初期化の異なるスパースニューラルネットワークのアンサンブルを訓練することにより、モデルが類似したモデル構造と類似の学習入力特徴に収束することを示す。
関連論文リスト
- Physics-Informed Neural Networks with Hard Linear Equality Constraints [9.101849365688905]
本研究は,線形等式制約を厳格に保証する物理インフォームドニューラルネットワークKKT-hPINNを提案する。
溶融タンク炉ユニット, 抽出蒸留サブシステム, 化学プラントのアスペンモデル実験により, このモデルが予測精度をさらに高めることを示した。
論文 参考訳(メタデータ) (2024-02-11T17:40:26Z) - On the Trade-off Between Efficiency and Precision of Neural Abstraction [62.046646433536104]
ニューラル抽象化は、最近、複雑な非線形力学モデルの形式近似として導入されている。
我々は形式的帰納的合成法を用いて、これらのセマンティクスを用いた動的モデルをもたらすニューラル抽象化を生成する。
論文 参考訳(メタデータ) (2023-07-28T13:22:32Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Quadratic models for understanding catapult dynamics of neural networks [15.381097076708535]
近年提案されたニューラル二次モデルでは,そのようなモデルを大きな学習率で訓練する際に生じる「カタパルト相」が示されることが示されている。
さらに,2次モデルがニューラルネットワーク解析の有効なツールであることを示す。
論文 参考訳(メタデータ) (2022-05-24T05:03:06Z) - Physics guided neural networks for modelling of non-linear dynamics [0.0]
この研究は、ディープニューラルネットワークの中間層に部分的に既知の情報を注入することで、モデルの精度を向上し、モデルの不確実性を低減し、トレーニング中に収束性を向上させることを実証する。
これらの物理誘導ニューラルネットワークの価値は、非線形系理論においてよく知られた5つの方程式で表される様々な非線形力学系の力学を学習することによって証明されている。
論文 参考訳(メタデータ) (2022-05-13T19:06:36Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Creating Powerful and Interpretable Models withRegression Networks [2.2049183478692584]
本稿では,ニューラルネットワークのパワーと回帰分析の可視性を組み合わせた新しいアーキテクチャRegression Networksを提案する。
これらのモデルが,いくつかのベンチマークデータセット上での解釈可能なモデルの最先端性能を上回ることを実証する。
論文 参考訳(メタデータ) (2021-07-30T03:37:00Z) - Sobolev training of thermodynamic-informed neural networks for smoothed
elasto-plasticity models with level set hardening [0.0]
本研究では, 可視成分を用いた平滑な弾塑性モデルの学習を目的としたディープラーニングフレームワークを提案する。
収率関数を進化レベル集合として再キャストすることにより、ハミルトン・ヤコビ方程式の解を予測する機械学習手法を導入する。
論文 参考訳(メタデータ) (2020-10-15T22:43:32Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。