論文の概要: Principle of learning sign rules by neural networks in qubit lattice
models
- arxiv url: http://arxiv.org/abs/2302.02523v3
- Date: Fri, 22 Dec 2023 06:42:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-25 18:52:02.273333
- Title: Principle of learning sign rules by neural networks in qubit lattice
models
- Title(参考訳): 量子格子モデルにおけるニューラルネットワークによる手話規則学習の原理
- Authors: Jin Cao, Shijie Hu, Zhiping Yin, and Ke Xia
- Abstract要約: 量子格子モデルにおける順序状態に対する符号規則の原理を示す。
これらの符号規則を示すために、単一の隠れニューロンを持つ浅いフィードフォワードニューラルネットワークを導入する。
- 参考スコア(独自算出の注目度): 9.502766488533771
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A neural network is a powerful tool that can uncover hidden laws beyond human
intuition. However, it often appears as a black box due to its complicated
nonlinear structures. By drawing upon the Gutzwiller mean-field theory, we can
showcase a principle of sign rules for ordered states in qubit lattice models.
We introduce a shallow feed-forward neural network with a single hidden neuron
to present these sign rules. We conduct systematical benchmarks in various
models, including the generalized Ising, spin-$1/2$ XY, (frustrated) Heisenberg
rings, triangular XY antiferromagnet on a torus, and the Fermi-Hubbard ring at
an arbitrary filling. These benchmarks show that all the leading-order sign
rule characteristics can be visualized in classical forms, such as pitch
angles. Besides, quantum fluctuations can result in an imperfect accuracy rate
quantitatively.
- Abstract(参考訳): ニューラルネットワークは、人間の直感を超えた隠された法則を発見できる強力なツールだ。
しかし、複雑な非線形構造のため、しばしばブラックボックスとして現れる。
gutzwiller平均場理論を参考にすることで、キュービット格子モデルにおける順序状態の符号規則の原理を示すことができる。
これらの符号規則を示すために、単一の隠れニューロンを持つ浅いフィードフォワードニューラルネットワークを導入する。
一般化Ising, spin-1/2$XY, (フラストレーション)Heisenberg環, トーラス上の三角形XY反強磁性体, 任意の充填でFermi-Hubbard環など,様々なモデルで系統的なベンチマークを行う。
これらのベンチマークは、すべての先行符号規則特性がピッチ角などの古典的な形式で可視化可能であることを示している。
さらに、量子揺らぎは不完全な精度を定量的に得ることができる。
関連論文リスト
- A Unified Theory of Quantum Neural Network Loss Landscapes [0.0]
量子ニューラルネットワーク(QNN)はランダムにガウス過程として振る舞うことが知られている。
QNNとその最初の2つの導関数が一般に「ウィッシュアートプロセス」と呼ばれるものを形成することを示す。
我々の統合フレームワークは、与えられたQNNモデルの「トレーニング可能性」に対して、ある種の単純な運用定義を提案する。
論文 参考訳(メタデータ) (2024-08-21T18:00:08Z) - Novel Kernel Models and Exact Representor Theory for Neural Networks Beyond the Over-Parameterized Regime [52.00917519626559]
本稿では、ニューラルネットワークの2つのモデルと、任意の幅、深さ、トポロジーのニューラルネットワークに適用可能なトレーニングについて述べる。
また、局所外在性神経核(LeNK)の観点から、非正規化勾配降下を伴う階層型ニューラルネットワークトレーニングのための正確な表現子理論を提示する。
この表現論は、ニューラルネットワークトレーニングにおける高次統計学の役割と、ニューラルネットワークのカーネルモデルにおけるカーネル進化の影響について洞察を与える。
論文 参考訳(メタデータ) (2024-05-24T06:30:36Z) - Neural network representation of quantum systems [0.0]
我々は、幅広い種類の量子力学系をニューラルネットワークの形でキャストできる新しいマップを提供する。
我々の発見は、機械学習を量子の世界に近づける。
論文 参考訳(メタデータ) (2024-03-18T02:20:22Z) - Towards Inductive Robustness: Distilling and Fostering Wave-induced
Resonance in Transductive GCNs Against Graph Adversarial Attacks [56.56052273318443]
グラフニューラルネットワーク(GNN)は、グラフ構造のわずかな摂動が誤った予測に繋がる敵の攻撃に弱いことが示されている。
ここでは, トランスダクティブGCNは本質的に, 波動誘起共鳴プロセスによって達成される, 蒸留可能なロバスト性を有することがわかった。
本稿では,この共振を学習ノード表現を通じて促進するグラフ共振源ネットワーク(GRN)を提案する。
論文 参考訳(メタデータ) (2023-12-14T04:25:50Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - A Scalable Walsh-Hadamard Regularizer to Overcome the Low-degree
Spectral Bias of Neural Networks [79.28094304325116]
任意の関数を学習するニューラルネットワークの能力にもかかわらず、勾配降下によって訓練されたモデルは、しばしばより単純な関数に対するバイアスを示す。
我々は、この低度周波数に対するスペクトルバイアスが、現実のデータセットにおけるニューラルネットワークの一般化を実際にいかに損なうかを示す。
本稿では,ニューラルネットワークによる高次周波数学習を支援する,スケーラブルな機能正規化手法を提案する。
論文 参考訳(メタデータ) (2023-05-16T20:06:01Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - High-accuracy variational Monte Carlo for frustrated magnets with deep
neural networks [1.2891210250935146]
非常に深い(4-16層型)ニューラルネットワークに基づく神経量子状態は、高フラストレーション量子マグネットにおける最先端の変動的アプローチより優れていることを示す。
我々は、宇宙グループ対称性を我々の「迷路」に課すことができるグループ畳み込みニューラルネットワーク(GCNN)に焦点を当てている。
論文 参考訳(メタデータ) (2022-11-14T20:51:19Z) - Lattice Convolutional Networks for Learning Ground States of Quantum
Many-Body Systems [33.82764380485598]
本稿では,非二乗格子を格子状拡張格子に変換するために,一組の演算を用いた格子畳み込みを提案する。
提案する格子畳み込みネットワーク(LCN)を用いて,自己ゲーティングと注意機構を用いた格子畳み込みネットワーク(LCN)を設計する。
論文 参考訳(メタデータ) (2022-06-15T08:24:37Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - Discovering Symbolic Models from Deep Learning with Inductive Biases [18.407542833830966]
我々は,強い帰納バイアスを導入することによって,学習深層モデルの記号表現を蒸留する一般手法を開発した。
グラフニューラルネットワーク(GNN)に焦点をあてる
力法則やハミルトニアンを含む正しい既知の方程式は、ニューラルネットワークから抽出できる。
次に,本手法を非自明な例,詳細な暗黒物質シミュレーションに適用し,新しい解析式を発見する。
論文 参考訳(メタデータ) (2020-06-19T18:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。