論文の概要: Universal scaling laws in quantum-probabilistic machine learning by tensor network towards interpreting representation and generalization powers
- arxiv url: http://arxiv.org/abs/2410.09703v1
- Date: Sun, 13 Oct 2024 02:48:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 08:36:49.243899
- Title: Universal scaling laws in quantum-probabilistic machine learning by tensor network towards interpreting representation and generalization powers
- Title(参考訳): テンソルネットワークによる量子確率的機械学習における普遍的スケーリング法則と表現と一般化パワーの解釈
- Authors: Sheng-Chen Bai, Shi-Ju Ran,
- Abstract要約: この研究は、量子確率的MLにおける普遍的スケーリング法則の出現を明らかにするのに寄与する。
生成テンソルネットワーク(GTN)を行列積状態の形で例に挙げる。
訓練されていないGTNでは、負対数確率 (NLL) $L$ は、一般に特徴数とともに線形に増加する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpreting the representation and generalization powers has been a long-standing issue in the field of machine learning (ML) and artificial intelligence. This work contributes to uncovering the emergence of universal scaling laws in quantum-probabilistic ML. We take the generative tensor network (GTN) in the form of a matrix product state as an example and show that with an untrained GTN (such as a random TN state), the negative logarithmic likelihood (NLL) $L$ generally increases linearly with the number of features $M$, i.e., $L \simeq k M + const$. This is a consequence of the so-called ``catastrophe of orthogonality,'' which states that quantum many-body states tend to become exponentially orthogonal to each other as $M$ increases. We reveal that while gaining information through training, the linear scaling law is suppressed by a negative quadratic correction, leading to $L \simeq \beta M - \alpha M^2 + const$. The scaling coefficients exhibit logarithmic relationships with the number of training samples and the number of quantum channels $\chi$. The emergence of the quadratic correction term in NLL for the testing (training) set can be regarded as evidence of the generalization (representation) power of GTN. Over-parameterization can be identified by the deviation in the values of $\alpha$ between training and testing sets while increasing $\chi$. We further investigate how orthogonality in the quantum feature map relates to the satisfaction of quantum probabilistic interpretation, as well as to the representation and generalization powers of GTN. The unveiling of universal scaling laws in quantum-probabilistic ML would be a valuable step toward establishing a white-box ML scheme interpreted within the quantum probabilistic framework.
- Abstract(参考訳): 表現と一般化能力の解釈は、機械学習(ML)と人工知能の分野で長年の課題であった。
この研究は、量子確率的MLにおける普遍的スケーリング法則の出現を明らかにするのに寄与する。
行列積状態の形で生成テンソルネットワーク(GTN)を例にとり、訓練されていないGTN(例えばランダムなTN状態)を持つと、負対数可能性(NLL)$L$は一般に$M$、すなわち$L \simeq k M + const$と線形に増加することを示す。
これはいわゆる「直交のカタストロフィ」の結果であり、量子多体状態はM$増加するにつれて指数関数的に直交する傾向にある。
トレーニングによって情報を得る一方で、線形スケーリング法則は負の二次補正によって抑制され、$L \simeq \beta M - \alpha M^2 + const$となる。
スケーリング係数は、トレーニングサンプルの数と量子チャネルの数と対数関係を示す。
テスト(トレーニング)セットに対するNLLにおける二次補正項の出現は、GTNの一般化(表現)力の証拠とみなすことができる。
オーバーパラメータ化は、トレーニングセットとテストセットの間の$\alpha$の値のずれによって識別できるが、$\chi$は増加する。
さらに、量子特徴写像の直交性は、量子確率論的解釈の満足度と、GTNの表現と一般化の力にどのように関係するかを考察する。
量子確率的MLにおける普遍的スケーリング法則の公表は、量子確率的フレームワーク内で解釈されたホワイトボックスMLスキームを確立するための貴重なステップである。
関連論文リスト
- The Power of Unentangled Quantum Proofs with Non-negative Amplitudes [55.90795112399611]
非負の振幅を持つ非絡み合った量子証明のパワー、つまり $textQMA+(2)$ を表すクラスについて研究する。
特に,小集合拡張,ユニークなゲーム,PCP検証のためのグローバルプロトコルを設計する。
QMA(2) が $textQMA+(2)$ に等しいことを示す。
論文 参考訳(メタデータ) (2024-02-29T01:35:46Z) - Quantum tomography of helicity states for general scattering processes [55.2480439325792]
量子トモグラフィーは、物理学における量子系の密度行列$rho$を計算するのに欠かせない道具となっている。
一般散乱過程におけるヘリシティ量子初期状態の再構成に関する理論的枠組みを提案する。
論文 参考訳(メタデータ) (2023-10-16T21:23:42Z) - Recurrent Neural Language Models as Probabilistic Finite-state Automata [66.23172872811594]
RNN LMが表現できる確率分布のクラスについて検討する。
単純なRNNは確率的有限状態オートマトンの部分クラスと同値であることを示す。
これらの結果は、RNN LMが表現できる分布のクラスを特徴付けるための第一歩を示す。
論文 参考訳(メタデータ) (2023-10-08T13:36:05Z) - Exponentially improved efficient machine learning for quantum many-body states with provable guarantees [0.0]
量子多体状態とその性質をモデル非依存の応用で効率的に学習するための理論的保証を提供する。
本結果は,量子多体状態とその特性をモデル非依存の応用で効率的に学習するための理論的保証を提供する。
論文 参考訳(メタデータ) (2023-04-10T02:22:36Z) - Learning Quantum Processes and Hamiltonians via the Pauli Transfer
Matrix [0.0]
量子化された実験から物理システムを学ぶことは、古典的なメモリと処理しか利用できない実験から学ぶことより優れている。
量子メモリは、以下のタスクを効率的に解くことができることを示す。
この結果から,量子力学を学習するための量子化実験のパワーが強調された。
論文 参考訳(メタデータ) (2022-12-08T18:46:06Z) - Theory of Quantum Generative Learning Models with Maximum Mean
Discrepancy [67.02951777522547]
量子回路ボルンマシン(QCBM)と量子生成逆ネットワーク(QGAN)の学習可能性について検討する。
まず、QCBMの一般化能力を解析し、量子デバイスがターゲット分布に直接アクセスできる際の優位性を同定する。
次に、QGANの一般化誤差境界が、採用されるAnsatz、クォーディットの数、入力状態に依存することを示す。
論文 参考訳(メタデータ) (2022-05-10T08:05:59Z) - The power of qutrits for non-adaptive measurement-based quantum
computing [0.0]
量子相関は、一般化された四重項グリーンベルガー・ホーネ・ザイリンガー状態(GHZ)を資源とし、最低でも3n-1$の四重項関数の計算を可能にすることを証明している。
これにより、LHVが計算できない任意の三次函数に対して対応する一般化されたGHZ型パラドックスが得られる。
論文 参考訳(メタデータ) (2022-03-23T13:41:22Z) - A lower bound on the space overhead of fault-tolerant quantum computation [51.723084600243716]
しきい値定理は、フォールトトレラント量子計算の理論における基本的な結果である。
振幅雑音を伴う耐故障性量子計算の最大長に対する指数的上限を証明した。
論文 参考訳(メタデータ) (2022-01-31T22:19:49Z) - Generalization in quantum machine learning from few training data [4.325561431427748]
現代の量子機械学習(QML)手法は、トレーニングデータセット上でパラメータ化された量子回路を変動的に最適化する。
トレーニング可能なゲートを最低で$sqrtT/N$とする量子機械学習モデルの一般化誤差を示す。
また、量子畳み込みニューラルネットワークによる相転移における量子状態の分類には、非常に小さなトレーニングデータセットが必要であることも示している。
論文 参考訳(メタデータ) (2021-11-09T17:49:46Z) - Deterministic and Entanglement-Efficient Preparation of
Amplitude-Encoded Quantum Registers [0.533024001730262]
古典ベクトル $mathbfb$ は量子状態の振幅で符号化される。
任意の状態の$Q$ qubitsは通常、約2Q$のエンタングゲートを必要とする。
状態準備に必要な量子資源を柔軟に削減できる決定論的(非変分法)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-26T07:37:54Z) - Quantum Gram-Schmidt Processes and Their Application to Efficient State
Read-out for Quantum Algorithms [87.04438831673063]
本稿では、生成した状態の古典的ベクトル形式を生成する効率的な読み出しプロトコルを提案する。
我々のプロトコルは、出力状態が入力行列の行空間にある場合に適合する。
我々の技術ツールの1つは、Gram-Schmidt正則手順を実行するための効率的な量子アルゴリズムである。
論文 参考訳(メタデータ) (2020-04-14T11:05:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。