論文の概要: Learning and Generalizing Polynomials in Simulation Metamodeling
- arxiv url: http://arxiv.org/abs/2307.10892v1
- Date: Thu, 20 Jul 2023 14:11:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 12:49:54.336113
- Title: Learning and Generalizing Polynomials in Simulation Metamodeling
- Title(参考訳): シミュレーションメタモデリングにおける学習と一般化
- Authors: Jesper Hauch, Christoffer Riis, Francisco C. Pereira
- Abstract要約: 本稿では、高次ニューラルネットワークを近似するための乗法アーキテクチャ(MNN)を収集し、提案する。
実験の結果、MNNはベースラインモデルよりも一般化し、その検証性能はアウト・オブ・ディストリビューションテストのパフォーマンスに忠実であることがわかった。
- 参考スコア(独自算出の注目度): 7.41244589428771
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to learn polynomials and generalize out-of-distribution is
essential for simulation metamodels in many disciplines of engineering, where
the time step updates are described by polynomials. While feed forward neural
networks can fit any function, they cannot generalize out-of-distribution for
higher-order polynomials. Therefore, this paper collects and proposes
multiplicative neural network (MNN) architectures that are used as recursive
building blocks for approximating higher-order polynomials. Our experiments
show that MNNs are better than baseline models at generalizing, and their
performance in validation is true to their performance in out-of-distribution
tests. In addition to MNN architectures, a simulation metamodeling approach is
proposed for simulations with polynomial time step updates. For these
simulations, simulating a time interval can be performed in fewer steps by
increasing the step size, which entails approximating higher-order polynomials.
While our approach is compatible with any simulation with polynomial time step
updates, a demonstration is shown for an epidemiology simulation model, which
also shows the inductive bias in MNNs for learning and generalizing
higher-order polynomials.
- Abstract(参考訳): 多項式を学習し、分配を一般化する能力は、時間ステップの更新が多項式によって記述される工学の多くの分野におけるシミュレーションメタモデルにとって不可欠である。
フィードフォワードニューラルネットワークは任意の関数に適合するが、高階多項式の分散の一般化はできない。
そこで本研究では,高次多項式を近似するための再帰的ビルディングブロックとして使用される乗法ニューラルネットワーク(MNN)アーキテクチャを収集し,提案する。
実験の結果、mnnは一般化時のベースラインモデルよりも優れており、検証のパフォーマンスは分散テストの性能に当てはまることがわかった。
MNNアーキテクチャに加えて,多項式時間ステップ更新を伴うシミュレーションに対して,シミュレーションメタモデリング手法を提案する。
これらのシミュレーションでは、ステップサイズを増加させることで、時間間隔のシミュレーションを少ないステップで行うことができる。
本手法は多項式時間ステップ更新を伴う任意のシミュレーションと互換性があるが, 疫学シミュレーションモデルを用いて, 高次多項式の学習と一般化のためのmnnの帰納的バイアスを示す。
関連論文リスト
- Exploring the Potential of Polynomial Basis Functions in Kolmogorov-Arnold Networks: A Comparative Study of Different Groups of Polynomials [0.0]
本稿では,ゴットリーブモゴロフネットワーク(KAN)モデルにおける18の異なる特徴とその潜在的な応用について述べる。
本研究は,手書き桁分類などの複雑なタスクに対するkanモデルにおける基本関数としての theseDistincts の適合性を検討することを目的とする。
総合的精度,Kappa,F1スコアを含むkanモデルの性能指標を評価し,比較した。
論文 参考訳(メタデータ) (2024-05-30T20:40:16Z) - Learning to Simulate: Generative Metamodeling via Quantile Regression [2.2518304637809714]
我々は「シミュレーターの高速シミュレータ」を構築することを目的とした、生成メタモデリングと呼ばれる新しいメタモデリング概念を提案する。
一度構築すると、生成メタモデルは入力が特定されるとすぐに大量のランダム出力を生成することができる。
本稿では,QRGMM(quantile-regression-based generative metamodeling)という新しいアルゴリズムを提案し,その収束率と収束率について検討する。
論文 参考訳(メタデータ) (2023-11-29T16:46:24Z) - PolySketchFormer: Fast Transformers via Sketching Polynomial Kernels [23.99075223506133]
モデル品質を犠牲にすることなくソフトマックスを効果的に置き換えることができることを示す。
本稿では,因果マスキングを効率的に適用するためのブロックベースアルゴリズムを提案する。
PolySketchFormerAttentionは、長いコンテキストを扱える言語モデルを訓練することで実証的に検証する。
論文 参考訳(メタデータ) (2023-10-02T21:39:04Z) - On the Trade-off Between Efficiency and Precision of Neural Abstraction [62.046646433536104]
ニューラル抽象化は、最近、複雑な非線形力学モデルの形式近似として導入されている。
我々は形式的帰納的合成法を用いて、これらのセマンティクスを用いた動的モデルをもたらすニューラル抽象化を生成する。
論文 参考訳(メタデータ) (2023-07-28T13:22:32Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - A predictive physics-aware hybrid reduced order model for reacting flows [65.73506571113623]
反応流問題の解法として,新しいハイブリッド型予測次数モデル (ROM) を提案する。
自由度は、数千の時間的点から、対応する時間的係数を持ついくつかのPODモードへと減少する。
時間係数を予測するために、2つの異なるディープラーニングアーキテクチャがテストされている。
論文 参考訳(メタデータ) (2023-01-24T08:39:20Z) - PAC Reinforcement Learning for Predictive State Representations [60.00237613646686]
部分的に観察可能な力学系におけるオンライン強化学習(RL)について検討する。
我々は、他のよく知られたモデルをキャプチャする表現モデルである予測状態表現(PSR)モデルに焦点を当てる。
我々は,サンプル複雑性のスケーリングにおいて,ほぼ最適なポリシを学習可能な,PSRのための新しいモデルベースアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-07-12T17:57:17Z) - Realization Theory Of Recurrent Neural ODEs Using Polynomial System
Embeddings [0.802904964931021]
本稿では,リカレント(RNN)と長期記憶(ODE-LSTM)ネットワークのニューラルODEアナログを,アルゴリズム的にシステムのクラスに組み込むことができることを示す。
このインプット・アウトプットの動作を埋め込み、他のDE-LSTMアーキテクチャにも拡張できる。
次に、システムの実現理論を用いて、ODE-LSTMによって実現可能な入力出力と、そのようなシステムの最小化のための十分な条件を提供する。
論文 参考訳(メタデータ) (2022-05-24T11:36:18Z) - Reinforcement Learning for Adaptive Mesh Refinement [63.7867809197671]
マルコフ決定過程としてのAMRの新規な定式化を提案し,シミュレーションから直接改良政策を訓練するために深部強化学習を適用した。
これらのポリシーアーキテクチャのモデルサイズはメッシュサイズに依存しないため、任意に大きく複雑なシミュレーションにスケールします。
論文 参考訳(メタデータ) (2021-03-01T22:55:48Z) - Machine learning for rapid discovery of laminar flow channel wall
modifications that enhance heat transfer [56.34005280792013]
任意の, 平坦な, 非平坦なチャネルの正確な数値シミュレーションと, ドラッグ係数とスタントン数を予測する機械学習モデルを組み合わせる。
畳み込みニューラルネットワーク(CNN)は,数値シミュレーションのわずかな時間で,目標特性を正確に予測できることを示す。
論文 参考訳(メタデータ) (2021-01-19T16:14:02Z) - Tensor Networks for Probabilistic Sequence Modeling [7.846449972735859]
シーケンスデータの確率的モデリングには,一様行列積状態(u-MPS)モデルを用いる。
次に、訓練されたu-MPSに対して、様々な条件分布から効率的にサンプリングできる新しい生成アルゴリズムを提案する。
合成テキストデータと実テキストデータを用いたシーケンスモデリング実験は、U-MPSが様々なベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2020-03-02T17:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。