論文の概要: Time-Warping Invariant Quantum Recurrent Neural Networks via
Quantum-Classical Adaptive Gating
- arxiv url: http://arxiv.org/abs/2301.08173v2
- Date: Fri, 20 Jan 2023 14:19:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-23 14:23:33.711683
- Title: Time-Warping Invariant Quantum Recurrent Neural Networks via
Quantum-Classical Adaptive Gating
- Title(参考訳): 量子古典的適応ゲーティングによる時変量子リカレントニューラルネットワーク
- Authors: Ivana Nikoloska, Osvaldo Simeone, Leonardo Banchi, and Petar
Veli\v{c}kovi\'c
- Abstract要約: 本稿では,量子メモリを用いた動的モデルであるQRNNに基づいて,時間的データ処理量子モデルの新たなクラスを導入する。
TWI-QRNN(Time Warping-invariant QRNN)と呼ばれるこのモデルは、QRNNを量子古典的適応ゲーティング機構で拡張する。
時変変換をうまく実装する能力は、古典力学や量子力学の例で実験的に実証されている。
- 参考スコア(独自算出の注目度): 26.52114287391472
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adaptive gating plays a key role in temporal data processing via classical
recurrent neural networks (RNN), as it facilitates retention of past
information necessary to predict the future, providing a mechanism that
preserves invariance to time warping transformations. This paper builds on
quantum recurrent neural networks (QRNNs), a dynamic model with quantum memory,
to introduce a novel class of temporal data processing quantum models that
preserve invariance to time-warping transformations of the (classical)
input-output sequences. The model, referred to as time warping-invariant QRNN
(TWI-QRNN), augments a QRNN with a quantum-classical adaptive gating mechanism
that chooses whether to apply a parameterized unitary transformation at each
time step as a function of the past samples of the input sequence via a
classical recurrent model. The TWI-QRNN model class is derived from first
principles, and its capacity to successfully implement time-warping
transformations is experimentally demonstrated on examples with classical or
quantum dynamics.
- Abstract(参考訳): アダプティブゲーティングは、未来を予測するのに必要な過去の情報の保持を容易にするため、古典的なリカレントニューラルネットワーク(rnn)による時間的データ処理において重要な役割を果たす。
本稿では,量子メモリを持つ動的モデルであるquantum recurrent neural networks (qrnns) を基盤として,(古典的)入力-出力列の時間-ウォーピング変換に対する不変性を保持する,新しい時間的データ処理量子モデルを提案する。
TWI-QRNN(Time Warping-invariant QRNN)と呼ばれるこのモデルは、古典的リカレントモデルを介して入力シーケンスの過去のサンプルの関数として、各ステップでパラメータ化されたユニタリ変換を適用するかどうかを選択する量子古典的適応ゲーティング機構でQRNNを拡張する。
twi-qrnnモデルクラスは第一原理から導出され、時制変換をうまく実装する能力は古典力学や量子力学の例で実験的に実証されている。
関連論文リスト
- Latent Space Energy-based Neural ODEs [73.01344439786524]
本稿では,連続時間シーケンスデータを表現するために設計された深部力学モデルの新しいファミリを紹介する。
マルコフ連鎖モンテカルロの最大推定値を用いてモデルを訓練する。
発振システム、ビデオ、実世界の状態シーケンス(MuJoCo)の実験は、学習可能なエネルギーベース以前のODEが既存のものより優れていることを示している。
論文 参考訳(メタデータ) (2024-09-05T18:14:22Z) - Fourier Neural Operators for Learning Dynamics in Quantum Spin Systems [77.88054335119074]
ランダム量子スピン系の進化をモデル化するためにFNOを用いる。
量子波動関数全体の2n$の代わりに、コンパクトなハミルトン観測可能集合にFNOを適用する。
論文 参考訳(メタデータ) (2024-09-05T07:18:09Z) - Learning to Program Variational Quantum Circuits with Fast Weights [3.6881738506505988]
本稿では,時間的あるいはシーケンシャルな学習課題に対する解決法として,QFWP(Quantum Fast Weight Programmers)を提案する。
提案したQFWPモデルは、量子リカレントニューラルネットワークの使用を必要とせずに、時間的依存関係の学習を実現する。
本研究では, 時系列予測とRLタスクにおいて, 提案したQFWPモデルの有効性を示す数値シミュレーションを行った。
論文 参考訳(メタデータ) (2024-02-27T18:53:18Z) - Bridging Classical and Quantum Machine Learning: Knowledge Transfer From
Classical to Quantum Neural Networks Using Knowledge Distillation [0.0]
本稿では,知識蒸留を用いた古典的ニューラルネットワークから量子ニューラルネットワークへ知識を伝達する新しい手法を提案する。
我々は、LeNetやAlexNetのような古典的畳み込みニューラルネットワーク(CNN)アーキテクチャを教師ネットワークとして活用する。
量子モデルは、MNISTデータセットで0.80%、より複雑なFashion MNISTデータセットで5.40%の平均精度改善を達成する。
論文 参考訳(メタデータ) (2023-11-23T05:06:43Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - The Quantum Path Kernel: a Generalized Quantum Neural Tangent Kernel for
Deep Quantum Machine Learning [52.77024349608834]
古典的なディープニューラルネットワークの量子アナログを構築することは、量子コンピューティングにおける根本的な課題である。
鍵となる問題は、古典的なディープラーニングの本質的な非線形性にどのように対処するかである。
我々は、深層機械学習のこれらの側面を複製できる量子機械学習の定式化であるQuantum Path Kernelを紹介する。
論文 参考訳(メタデータ) (2022-12-22T16:06:24Z) - Phase diagram of quantum generalized Potts-Hopfield neural networks [0.0]
我々は,q-state Potts-Hopfield ニューラルネットワークのオープン量子一般化を導入し,解析する。
この多体系の力学はリンドブラッド型のマルコフマスター方程式によって定式化される。
論文 参考訳(メタデータ) (2021-09-21T12:48:49Z) - Quantum Long Short-Term Memory [3.675884635364471]
LSTM(Long Short-term memory)は、シーケンスおよび時間依存性データモデリングのためのリカレントニューラルネットワーク(RNN)である。
本稿では,QLSTMを疑似化したLSTMのハイブリッド量子古典モデルを提案する。
我々の研究は、ノイズの多い中間スケール量子(NISQ)デバイス上でのシーケンスモデリングのための機械学習アルゴリズムの実装への道を開いた。
論文 参考訳(メタデータ) (2020-09-03T16:41:09Z) - Recurrent Quantum Neural Networks [7.6146285961466]
リカレントニューラルネットワークは、機械学習における多くのシーケンス対シーケンスモデルの基盤となっている。
非自明なタスクに対して実証可能な性能を持つ量子リカレントニューラルネットワーク(QRNN)を構築する。
我々はQRNNをMNIST分類で評価し、QRNNに各画像ピクセルを供給し、また、最新のデータ拡張を前処理のステップとして利用する。
論文 参考訳(メタデータ) (2020-06-25T17:59:44Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。