論文の概要: Quantum-Inspired Tensor Neural Networks for Partial Differential
Equations
- arxiv url: http://arxiv.org/abs/2208.02235v1
- Date: Wed, 3 Aug 2022 17:41:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 13:26:52.886394
- Title: Quantum-Inspired Tensor Neural Networks for Partial Differential
Equations
- Title(参考訳): 部分微分方程式に対する量子誘起テンソルニューラルネットワーク
- Authors: Raj Patel, Chia-Wei Hsing, Serkan Sahin, Saeed S. Jahromi, Samuel
Palmer, Shivam Sharma, Christophe Michel, Vincent Porte, Mustafa Abid,
Stephane Aubert, Pierre Castellani, Chi-Guhn Lee, Samuel Mugel, Roman Orus
- Abstract要約: ディープラーニング手法は時間と記憶の訓練によって制約される。これらの欠点に対処するため、ニューラルネットワーク(TNN)を実装している。
我々は、TNNが古典的ニューラルネットワーク(DNN)と同等の精度を保ちながら、重要なパラメータの節約を提供することを示した。
- 参考スコア(独自算出の注目度): 5.963563752404561
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partial Differential Equations (PDEs) are used to model a variety of
dynamical systems in science and engineering. Recent advances in deep learning
have enabled us to solve them in a higher dimension by addressing the curse of
dimensionality in new ways. However, deep learning methods are constrained by
training time and memory. To tackle these shortcomings, we implement Tensor
Neural Networks (TNN), a quantum-inspired neural network architecture that
leverages Tensor Network ideas to improve upon deep learning approaches. We
demonstrate that TNN provide significant parameter savings while attaining the
same accuracy as compared to the classical Dense Neural Network (DNN). In
addition, we also show how TNN can be trained faster than DNN for the same
accuracy. We benchmark TNN by applying them to solve parabolic PDEs,
specifically the Black-Scholes-Barenblatt equation, widely used in financial
pricing theory, empirically showing the advantages of TNN over DNN. Further
examples, such as the Hamilton-Jacobi-Bellman equation, are also discussed.
- Abstract(参考訳): 偏微分方程式 (pdes) は科学や工学において様々な力学系をモデル化するために用いられる。
近年のディープラーニングの進歩により,次元の呪いを新たな方法で解くことで,より高次元の解法が実現されている。
しかし,ディープラーニング手法は学習時間と記憶によって制約される。
これらの欠点に対処するために、深層学習アプローチを改善するためにTensor Networks(TNN)という量子インスパイアされたニューラルネットワークアーキテクチャを実装した。
従来型ニューラルネットワーク (dnn) と同等の精度を実現しつつ,tnnが重要なパラメータ節約をもたらすことを実証した。
さらに,同じ精度でTNNをDNNよりも高速に訓練できることを示す。
我々は、パラボリックPDE、特に金融価格理論で広く使われているブラック・スコルズ・バレンブラット方程式を解くためにTNNを適用してベンチマークを行い、DNNよりもTNNの利点を実証的に示す。
さらにハミルトン・ヤコビ・ベルマン方程式のような例も議論されている。
関連論文リスト
- Quantum-Inspired Tensor Neural Networks for Option Pricing [4.3942901219301564]
近年の深層学習の進歩により,高次元の問題を解くことで,次元性の呪い(COD)に対処することが可能になった。
このようなCODに対処するアプローチのサブセットは、高次元PDEの解決に繋がった。
この結果、数学的な金融から産業用途の制御まで、様々な現実世界の問題を解決するための扉が開けた。
論文 参考訳(メタデータ) (2022-12-28T19:39:55Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Anisotropic, Sparse and Interpretable Physics-Informed Neural Networks
for PDEs [0.0]
我々は,従来のSPINN(Sparse, Physics-informed, Interpretable Neural Networks)と呼ばれる異方性拡張であるASPINNを提案し,PDEを解く。
ASPINNはラジアル基底関数ネットワークを一般化する。
また、ASPINNのトレーニングを教師付き学習アルゴリズムに近い形式に合理化します。
論文 参考訳(メタデータ) (2022-07-01T12:24:43Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Learning Trajectories of Hamiltonian Systems with Neural Networks [81.38804205212425]
本稿では,モデル系の連続時間軌跡を推定し,ハミルトニアンニューラルネットワークを強化することを提案する。
提案手法は, 低サンプリング率, ノイズ, 不規則な観測において, HNNに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-04-11T13:25:45Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - A Time Encoding approach to training Spiking Neural Networks [3.655021726150368]
スパイキングニューラルネットワーク(SNN)の人気が高まっている。
本稿では、時間符号化理論を用いて、SNNの理解と学習を支援する余分なツールを提供する。
論文 参考訳(メタデータ) (2021-10-13T14:07:11Z) - A self consistent theory of Gaussian Processes captures feature learning
effects in finite CNNs [2.28438857884398]
無限幅/チャネル制限のディープニューラルネットワーク(DNN)が最近注目を集めている。
理論上の魅力にもかかわらず、この視点は有限DNNにおいて深層学習の重要な要素を欠いている。
ここでは,大きなトレーニングセット上で雑音勾配勾配で訓練されたDNNを考察し,強い有限DNNと特徴学習効果を考慮した自己一貫したガウス過程理論を導出する。
論文 参考訳(メタデータ) (2021-06-08T05:20:00Z) - Block-term Tensor Neural Networks [29.442026567710435]
ブロック終端テンソル層(BT層)は,CNNやRNNなどのニューラルネットワークモデルに容易に適用可能であることを示す。
CNNとRNNのBT層は、元のDNNの表現力を維持したり改善したりしながら、パラメータ数に対して非常に大きな圧縮比を達成することができる。
論文 参考訳(メタデータ) (2020-10-10T09:58:43Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。