論文の概要: Imaginary components of out-of-time correlators and information
scrambling for navigating the learning landscape of a quantum machine
learning model
- arxiv url: http://arxiv.org/abs/2208.13384v2
- Date: Sun, 15 Jan 2023 00:09:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-28 15:02:40.616375
- Title: Imaginary components of out-of-time correlators and information
scrambling for navigating the learning landscape of a quantum machine
learning model
- Title(参考訳): 量子機械学習モデルの学習ランドスケープをナビゲートするための時間外相関器のイマジナリー成分と情報スクランブル
- Authors: Manas Sajjan, Vinit Singh, Raja Selvarajan, Sabre Kais
- Abstract要約: 我々は、時間外相関器の未探索の虚構成分が、グラフニューラルネットワークの情報スクランブル能力に関する前例のない洞察を与えることができることを分析的に説明する。
このような分析は、量子情報がそのようなネットワークを介してどのようにスクランブルされるかを明らかにすることによって、量子機械学習モデルのトレーニングをデミステレーションする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce and analytically illustrate that hitherto unexplored imaginary
components of out-of-time correlators can provide unprecedented insight into
the information scrambling capacity of a graph neural network. Furthermore, we
demonstrate that it can be related to conventional measures of correlation like
quantum mutual information and rigorously establish the inherent mathematical
bounds (both upper and lower bound) jointly shared by such seemingly disparate
quantities. To consolidate the geometrical ramifications of such bounds during
the dynamical evolution of training we thereafter construct an emergent convex
space. This newly designed space offers much surprising information including
the saturation of lower bound by the trained network even for physical systems
of large sizes, transference, and quantitative mirroring of spin correlation
from the simulated physical system across phase boundaries as desirable
features within the latent sub-units of the network (even though the latent
units are directly oblivious to the simulated physical system) and the ability
of the network to distinguish exotic spin connectivity(volume-law vs area law).
Such an analysis demystifies the training of quantum machine learning models by
unraveling how quantum information is scrambled through such a network
introducing correlation surreptitiously among its constituent sub-systems and
open a window into the underlying physical mechanism behind the emulative
ability of the model.
- Abstract(参考訳): 我々は、時間外相関器の未探索の虚構成分が、グラフニューラルネットワークの情報スクランブル能力に関する前例のない洞察を与えることができることを示す。
さらに,量子相互情報のような従来の相関尺度と関係があることを実証し,このような異質な量によって相互に共有される固有数界(上界と下界の両方)を厳密に確立する。
トレーニングの動的進化中にそのような境界の幾何学的分岐を統合するために、創発凸空間を構築した。
This newly designed space offers much surprising information including the saturation of lower bound by the trained network even for physical systems of large sizes, transference, and quantitative mirroring of spin correlation from the simulated physical system across phase boundaries as desirable features within the latent sub-units of the network (even though the latent units are directly oblivious to the simulated physical system) and the ability of the network to distinguish exotic spin connectivity(volume-law vs area law).
このような分析は、量子情報が構成サブシステム間で漸近的に相関を導入し、モデルのエミュレーティブ能力の裏にある基盤となる物理的メカニズムに窓を開くネットワークを通してどのようにスクランブルされるかを明らかにすることによって、量子機械学習モデルのトレーニングをデミステレーションする。
関連論文リスト
- Demolition and Reinforcement of Memories in Spin-Glass-like Neural
Networks [0.0]
この論文の目的は、連想記憶モデルと生成モデルの両方において、アンラーニングの有効性を理解することである。
構造化データの選択により、連想記憶モデルは、相当量のアトラクションを持つニューラルダイナミクスのアトラクションとしての概念を検索することができる。
Boltzmann Machinesの新しい正規化手法が提案され、データセットから隠れ確率分布を学習する以前に開発された手法より優れていることが証明された。
論文 参考訳(メタデータ) (2024-03-04T23:12:42Z) - Inferring Relational Potentials in Interacting Systems [56.498417950856904]
このような相互作用を発見する代替手法として、ニューラル・インタラクション・推論(NIIP)を提案する。
NIIPは観測された関係制約を尊重する軌道のサブセットに低エネルギーを割り当てる。
別々に訓練されたモデル間での相互作用の型を交換するなどの軌道操作や、軌道予測を可能にする。
論文 参考訳(メタデータ) (2023-10-23T00:44:17Z) - Exponential Quantum Communication Advantage in Distributed Learning [5.793818856075257]
本稿では、データを特殊な量子状態に符号化する量子ネットワーク上での分散計算のためのフレームワークを提案する。
このフレームワーク内の特定のモデルに対して、勾配降下を用いた推論と訓練は、古典的なアナログと比較して指数関数的に少ない通信で実行可能であることを証明した。
論文 参考訳(メタデータ) (2023-10-11T02:19:50Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Deep learning of spatial densities in inhomogeneous correlated quantum
systems [0.0]
ランダムポテンシャルに基づいてトレーニングされた畳み込みニューラルネットワークを用いて,密度の予測が可能であることを示す。
我々は,不均一な状況下での干渉と相互作用の相互作用と相転移を伴うモデルの挙動をうまく扱えることを示す。
論文 参考訳(メタデータ) (2022-11-16T17:10:07Z) - Collisional open quantum dynamics with a generally correlated
environment: Exact solvability in tensor networks [0.0]
システム力学の自然なマルコフ埋め込みは,ネットワークの仮想指標によって補助的なシステムの役割を担っている。
その結果、量子光学と量子輸送の分野におけるテンソル・ネットワーク法が進展した。
論文 参考訳(メタデータ) (2022-02-09T19:48:17Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Tracing Information Flow from Open Quantum Systems [52.77024349608834]
我々は導波路アレイに光子を用いて、キュービットと低次元の離散環境とのカップリングの量子シミュレーションを実装した。
量子状態間のトレース距離を情報の尺度として用いて、異なるタイプの情報伝達を分析する。
論文 参考訳(メタデータ) (2021-03-22T16:38:31Z) - Learning Contact Dynamics using Physically Structured Neural Networks [81.73947303886753]
ディープニューラルネットワークと微分方程式の接続を用いて、オブジェクト間の接触ダイナミクスを表現するディープネットワークアーキテクチャのファミリを設計する。
これらのネットワークは,ノイズ観測から不連続な接触事象をデータ効率良く学習できることを示す。
以上の結果から,タッチフィードバックの理想化形態は,この学習課題を扱いやすくするための重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2021-02-22T17:33:51Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - 'Place-cell' emergence and learning of invariant data with restricted
Boltzmann machines: breaking and dynamical restoration of continuous
symmetries in the weight space [0.0]
本稿では,表現学習のためのニューラルネットワークパラダイムである拘束ボルツマンマシン(RBM)の学習力学について検討する。
ネットワーク重みのランダムな構成から学習が進むにつれて、対称性を破る現象の存在が示される。
この対称性を破る現象は、トレーニングに利用できるデータの量がいくつかの臨界値を超える場合にのみ起こる。
論文 参考訳(メタデータ) (2019-12-30T14:37:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。