論文の概要: Data-Driven Time Propagation of Quantum Systems with Neural Networks
- arxiv url: http://arxiv.org/abs/2201.11647v1
- Date: Thu, 27 Jan 2022 17:08:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 18:10:03.937044
- Title: Data-Driven Time Propagation of Quantum Systems with Neural Networks
- Title(参考訳): ニューラルネットワークを用いた量子システムのデータ駆動時間伝搬
- Authors: James Nelson, Luuk Coopmans, Graham Kells and Stefano Sanvito
- Abstract要約: 時間内に量子システムを伝播する教師あり機械学習の可能性について検討する。
ニューラルネットワークは、将来いつでもタイムプロパゲータとして機能し、自動回帰を形成する時間内に寝ることを示します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the potential of supervised machine learning to propagate a
quantum system in time. While Markovian dynamics can be learned easily, given a
sufficient amount of data, non-Markovian systems are non-trivial and their
description requires the memory knowledge of past states. Here we analyse the
feature of such memory by taking a simple 1D Heisenberg model as many-body
Hamiltonian, and construct a non-Markovian description by representing the
system over the single-particle reduced density matrix. The number of past
states required for this representation to reproduce the time-dependent
dynamics is found to grow exponentially with the number of spins and with the
density of the system spectrum. Most importantly, we demonstrate that neural
networks can work as time propagators at any time in the future and that they
can be concatenated in time forming an autoregression. Such neural-network
autoregression can be used to generate long-time and arbitrary dense time
trajectories. Finally, we investigate the time resolution needed to represent
the system memory. We find two regimes: for fine memory samplings the memory
needed remains constant, while longer memories are required for coarse
samplings, although the total number of time steps remains constant. The
boundary between these two regimes is set by the period corresponding to the
highest frequency in the system spectrum, demonstrating that neural network can
overcome the limitation set by the Shannon-Nyquist sampling theorem.
- Abstract(参考訳): 時間内に量子システムを伝播する教師あり機械学習の可能性について検討する。
マルコフ力学は十分な量のデータから容易に学習できるが、非マルコフ力学系は非自明であり、それらの記述は過去の状態の記憶知識を必要とする。
ここでは, 単純1次元ハイゼンベルクモデルを多体ハミルトニアンとして解析し, 単一粒子還元密度行列上の系を表現することで, 非マルコフ的記述を構築する。
この表現が時間依存ダイナミクスを再現するのに必要となる過去の状態の数は、スピンの数と系スペクトルの密度で指数関数的に増加することが分かる。
最も重要なことは、ニューラルネットワークが将来いつでもタイムプロパゲータとして機能し、自己回帰を形成する時間内に結合できることを示しています。
このようなニューラルネットワークの自己回帰は、長い時間と任意の高密度な時間軌道を生成するのに使うことができる。
最後に,システムメモリの表現に必要な時間分解能について検討する。
微細なメモリサンプリングには、必要なメモリは一定であり、粗いサンプリングには長いメモリが必要であるが、全体の時間ステップは一定である。
これら2つの状態の境界は、系スペクトルの最高周波数に対応する周期によって設定され、ニューラルネットワークがシャノン・ニキストサンプリング定理によって設定された制限を克服できることを示す。
関連論文リスト
- Fourier Neural Operators for Learning Dynamics in Quantum Spin Systems [77.88054335119074]
ランダム量子スピン系の進化をモデル化するためにFNOを用いる。
量子波動関数全体の2n$の代わりに、コンパクトなハミルトン観測可能集合にFNOを適用する。
論文 参考訳(メタデータ) (2024-09-05T07:18:09Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Deep learning delay coordinate dynamics for chaotic attractors from
partial observable data [0.0]
深層ニューラルネットワークを用いて離散時間マップと部分状態の連続時間フローを学習する。
我々は, 3次元多様体上のスカラー観測から, ロレンツ系を経由したカオス挙動を予測するために, 深部ANNの能力を示す。
論文 参考訳(メタデータ) (2022-11-20T19:25:02Z) - From Tensor Network Quantum States to Tensorial Recurrent Neural
Networks [0.0]
我々は,任意の行列積状態 (MPS) が線形メモリ更新を伴うリカレントニューラルネットワーク (RNN) によって正確に表現可能であることを示す。
我々は、このRNNアーキテクチャをマルチリニアメモリ更新を用いて2次元格子に一般化する。
論文 参考訳(メタデータ) (2022-06-24T16:25:36Z) - A quantum generative model for multi-dimensional time series using
Hamiltonian learning [0.0]
このような特徴を符号化する手法として,量子力学のシミュレートに量子コンピュータの本質的性質を用いることを提案する。
学習したモデルを用いて、サンプル外の時系列を生成し、学習した時系列のユニークで複雑な特徴をキャプチャすることを示す。
提案手法を11量子ビットトラップイオン量子マシン上で実験的に実証した。
論文 参考訳(メタデータ) (2022-04-13T03:06:36Z) - Deep recurrent networks predicting the gap evolution in adiabatic
quantum computing [0.0]
ハミルトン問題を完全に同定するパラメータからギャップのパラメトリック依存への写像を発見するためのディープラーニングの可能性を探る。
本稿では,パラメータ空間がシステムサイズと線形にスケールする場合に,長期記憶ネットワークがギャップを予測することに成功していることを示す。
注目すべきは、このアーキテクチャがモデルの空間構造を扱うために畳み込みニューラルネットワークと組み合わされると、トレーニング中にニューラルネットワークで見られるものよりも大きなシステムサイズに対してギャップ進化を予測できることである。
論文 参考訳(メタデータ) (2021-09-17T12:08:57Z) - Astrocytes mediate analogous memory in a multi-layer neuron-astrocytic
network [52.77024349608834]
情報の一部が数秒間堅牢な活動パターンとして維持され、他の刺激が来なければ完全に消滅することを示す。
この種の短期記憶は、操作情報を数秒保存し、次のパターンとの重複を避けるために完全に忘れてしまう。
任意のパターンをロードし、一定の間隔で保存し、適切な手掛かりパターンを入力に適用した場合に検索する方法について示す。
論文 参考訳(メタデータ) (2021-08-31T16:13:15Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Continuous and time-discrete non-Markovian system-reservoir
interactions: Dissipative coherent quantum feedback in Liouville space [62.997667081978825]
2つの構造型貯水池に同時に露出する量子系について検討する。
対角線と対角線と外対角線の両方の貯留層相互作用を2倍のメモリと組み合わせた数値的精度の擬似2次元テンソルネットワークを用いて連続的および離散的遅延効果を示す。
例えば、離散フォトニックフィードバックと構造された音響フォノノノビアンモードの非マルコフ的相互作用を考察し、初期励起された2レベルシステム内での貯留層間相関と長寿命個体群トラップの出現を導いた。
論文 参考訳(メタデータ) (2020-11-10T12:38:35Z) - Quantum Long Short-Term Memory [3.675884635364471]
LSTM(Long Short-term memory)は、シーケンスおよび時間依存性データモデリングのためのリカレントニューラルネットワーク(RNN)である。
本稿では,QLSTMを疑似化したLSTMのハイブリッド量子古典モデルを提案する。
我々の研究は、ノイズの多い中間スケール量子(NISQ)デバイス上でのシーケンスモデリングのための機械学習アルゴリズムの実装への道を開いた。
論文 参考訳(メタデータ) (2020-09-03T16:41:09Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。