論文の概要: Quantum autonomous Boolean networks
- arxiv url: http://arxiv.org/abs/2303.00174v1
- Date: Wed, 1 Mar 2023 02:04:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 16:18:36.763274
- Title: Quantum autonomous Boolean networks
- Title(参考訳): 量子自律ブールネットワーク
- Authors: Ian T. Durham
- Abstract要約: 古典的モデルと同じ性質の多くを示す量子自律ブールネットワークのモデルを開発した。
振る舞いの豊かな風景の中で、一意に量子的性質を示します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Boolean networks, first developed in the late 1960s as a tool for studying
complex disordered dynamical systems, consist of nodes governed by Boolean
functions whose evolution is entirely deterministic in that the state of the
network at a given time fully determines the state of the network at some
future time. They are known for exhibiting a high degree of spontaneous order
and have since become a fundamental tool for modeling a wide variety of
systems. In this article I develop a model for quantum autonomous Boolean
networks that exhibits many of the same properties as the classical model while
also demonstrating uniquely quantum properties within a rich landscape of
behavior.
- Abstract(参考訳): ブールネットワークは1960年代後半に、複雑な乱れた力学系を研究するためのツールとして開発され、ある時点でのネットワークの状態が将来のネットワークの状態を完全に決定する、完全に決定論的であるブール関数によって支配されるノードで構成される。
それらは高い自然順序を示すことで知られており、その後様々なシステムのモデリングの基本的な道具となった。
本稿では、量子自律ブールネットワークのモデルを開発し、古典的モデルと同じ性質の多くを示しながら、振る舞いの豊かな風景の中で一意に量子的性質を示す。
関連論文リスト
- A short trajectory is all you need: A transformer-based model for long-time dissipative quantum dynamics [0.0]
深層人工知能ニューラルネットワークは、散逸環境に結合した量子システムの長時間の人口動態を予測することができることを示す。
我々のモデルは、リカレントニューラルネットワークのような古典的な予測モデルよりも正確です。
論文 参考訳(メタデータ) (2024-09-17T16:17:52Z) - CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Deep learning of many-body observables and quantum information scrambling [0.0]
物理オブザーバブルの力学を学習する際のデータ駆動型ディープニューラルネットワークの能力が、量子情報のスクランブルとどのように相関するかを考察する。
ニューラルネットワークを用いて、モデルのパラメータからランダム量子回路における可観測物の進化へのマッピングを求める。
特定のタイプのリカレントニューラルネットワークは、局所的およびスクランブルされた状態の両方でトレーニングされたシステムサイズと時間ウィンドウ内での予測を一般化する上で非常に強力であることを示す。
論文 参考訳(メタデータ) (2023-02-09T13:14:10Z) - Leveraging the structure of dynamical systems for data-driven modeling [111.45324708884813]
トレーニングセットとその構造が長期予測の品質に与える影響を考察する。
トレーニングセットのインフォームドデザインは,システムの不変性と基盤となるアトラクションの構造に基づいて,結果のモデルを大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-12-15T20:09:20Z) - Phase diagram of quantum generalized Potts-Hopfield neural networks [0.0]
我々は,q-state Potts-Hopfield ニューラルネットワークのオープン量子一般化を導入し,解析する。
この多体系の力学はリンドブラッド型のマルコフマスター方程式によって定式化される。
論文 参考訳(メタデータ) (2021-09-21T12:48:49Z) - Stochastic Recurrent Neural Network for Multistep Time Series
Forecasting [0.0]
我々は、時系列予測のための繰り返しニューラルネットワークの適応を提案するために、深部生成モデルと状態空間モデルの概念の進歩を活用する。
私たちのモデルは、すべての関連情報が隠された状態でカプセル化されるリカレントニューラルネットワークのアーキテクチャ的な動作を保ち、この柔軟性により、モデルはシーケンシャルモデリングのために任意のディープアーキテクチャに簡単に統合できます。
論文 参考訳(メタデータ) (2021-04-26T01:43:43Z) - Quantum Self-Supervised Learning [22.953284192004034]
対照的自己監督学習のためのハイブリッド量子古典ニューラルネットワークアーキテクチャを提案する。
ibmq_paris量子コンピュータ上の見えない画像を分類するために、最良の量子モデルを適用します。
論文 参考訳(メタデータ) (2021-03-26T18:00:00Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。