論文の概要: Double descent: When do neural quantum states generalize?
- arxiv url: http://arxiv.org/abs/2508.00068v1
- Date: Thu, 31 Jul 2025 18:00:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.615326
- Title: Double descent: When do neural quantum states generalize?
- Title(参考訳): 二重降下: 神経量子状態はいつ一般化されるか?
- Authors: M. Schuyler Moss, Alev Orfi, Christopher Roth, Anirvan M. Sengupta, Antoine Georges, Dries Sels, Anna Dawid, Agnes Valenti,
- Abstract要約: ニューラル量子状態(NQS)は、量子多体物理学の数値的研究に柔軟な波動関数のパラメータ化を提供する。
NQSは、現代のディープラーニングの重要な特徴である二重降下現象を示す。
発見は対称性を意識した物理インフォームドアーキテクチャ設計の必要性を示唆している。
- 参考スコア(独自算出の注目度): 4.208768968217994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural quantum states (NQS) provide flexible wavefunction parameterizations for numerical studies of quantum many-body physics. While inspired by deep learning, it remains unclear to what extent NQS share characteristics with neural networks used for standard machine learning tasks. We demonstrate that NQS exhibit the double descent phenomenon, a key feature of modern deep learning, where generalization worsens as network size increases before improving again in an overparameterized regime. Notably, we find the second descent to occur only for network sizes much larger than the Hilbert space dimension, indicating that NQS typically operate in an underparameterized regime, where increasing network size can degrade generalization. Our analysis reveals that the optimal network size in this regime depends on the number of unique training samples, highlighting the importance of sampling strategies. These findings suggest the need for symmetry-aware, physics-informed architecture design, rather than directly adopting machine learning heuristics.
- Abstract(参考訳): ニューラル量子状態(NQS)は、量子多体物理学の数値的研究に柔軟な波動関数のパラメータ化を提供する。
ディープラーニングにインスパイアされたものの、NQSが標準的な機械学習タスクに使用されるニューラルネットワークとどの程度の特徴を共有しているかは、まだ不明である。
我々は,NQSが,ネットワークサイズの増加に伴って一般化が悪化し,過度なパラメータ化体制下で再び改善されるという,現代の深層学習の重要な特徴である二重降下現象を示すことを示した。
特に,2番目の降下はヒルベルト空間次元よりもはるかに大きいネットワークサイズに対してのみ発生し,NQSは通常,ネットワークサイズの増加が一般化を低下させるようなパラメータ下状態にあることを示す。
分析の結果,本システムにおける最適ネットワークサイズは,独自のトレーニングサンプル数に依存し,サンプリング戦略の重要性を浮き彫りにしていることがわかった。
これらの結果は、機械学習のヒューリスティックを直接採用するのではなく、対称性を意識した物理インフォームドアーキテクチャ設計の必要性を示唆している。
関連論文リスト
- Adaptive Neural Quantum States: A Recurrent Neural Network Perspective [0.7234862895932991]
ニューラルネットワーク量子状態(NQS)を最適化する適応スキームを示す。
NQSは、量子多体物理学を研究するための有望なツールとして登場した強力なニューラルネットワークアンゼである。
論文 参考訳(メタデータ) (2025-07-24T18:00:03Z) - GradINN: Gradient Informed Neural Network [2.287415292857564]
物理情報ニューラルネットワーク(PINN)にヒントを得た手法を提案する。
GradINNは、システムの勾配に関する事前の信念を利用して、予測関数の勾配を全ての入力次元にわたって制限する。
非時間依存システムにまたがる多様な問題に対するGradINNの利点を実証する。
論文 参考訳(メタデータ) (2024-09-03T14:03:29Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Deep learning of many-body observables and quantum information scrambling [0.0]
物理オブザーバブルの力学を学習する際のデータ駆動型ディープニューラルネットワークの能力が、量子情報のスクランブルとどのように相関するかを考察する。
ニューラルネットワークを用いて、モデルのパラメータからランダム量子回路における可観測物の進化へのマッピングを求める。
特定のタイプのリカレントニューラルネットワークは、局所的およびスクランブルされた状態の両方でトレーニングされたシステムサイズと時間ウィンドウ内での予測を一般化する上で非常に強力であることを示す。
論文 参考訳(メタデータ) (2023-02-09T13:14:10Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Neural Networks with Sparse Activation Induced by Large Bias: Tighter Analysis with Bias-Generalized NTK [86.45209429863858]
ニューラル・タンジェント・カーネル(NTK)における一層ReLUネットワークのトレーニングについて検討した。
我々は、ニューラルネットワークが、テクティトビア一般化NTKと呼ばれる異なる制限カーネルを持っていることを示した。
ニューラルネットの様々な特性をこの新しいカーネルで研究する。
論文 参考訳(メタデータ) (2023-01-01T02:11:39Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Exponentially Many Local Minima in Quantum Neural Networks [9.442139459221785]
量子ニューラルネットワーク(QNN)は、古典的ニューラルネットワークと同じような約束のため、重要な量子アプリケーションである。
我々は,QNNの損失関数のランドスケープを定量的に調査し,トレーニング用に単純だが極めて難しいQNNインスタンスのクラスを同定する。
我々は、我々の構成が、典型的な勾配ベースの回路で実際に難しい事例となることを実証的に確認する。
論文 参考訳(メタデータ) (2021-10-06T03:23:44Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Generalization Study of Quantum Neural Network [11.502747203515954]
一般化はニューラルネットワークの重要な特徴であり、それについて多くの研究がなされている。
量子ゲートによって構築された量子ニューラルネットワークのクラスについて検討した。
我々のモデルは、同じ構造を持つ古典的ニューラルネットワークよりも優れた一般化を持つ。
論文 参考訳(メタデータ) (2020-06-02T06:10:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。