論文の概要: On Machine Learning Knowledge Representation In The Form Of Partially
Unitary Operator. Knowledge Generalizing Operator
- arxiv url: http://arxiv.org/abs/2212.14810v1
- Date: Thu, 22 Dec 2022 06:29:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 04:14:03.607583
- Title: On Machine Learning Knowledge Representation In The Form Of Partially
Unitary Operator. Knowledge Generalizing Operator
- Title(参考訳): 部分単元演算子形式の機械学習知識表現について
知識一般化演算子
- Authors: Vladislav Gennadievich Malyshkin
- Abstract要約: 一般化力の高いML知識表現の新たな形式を開発し,数値的に実装した。
$mathcalU$は$mathitIN$から$mathitOUT$の量子チャネルと見なすことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A new form of ML knowledge representation with high generalization power is
developed and implemented numerically. Initial $\mathit{IN}$ attributes and
$\mathit{OUT}$ class label are transformed into the corresponding Hilbert
spaces by considering localized wavefunctions. A partially unitary operator
optimally converting a state from $\mathit{IN}$ Hilbert space into
$\mathit{OUT}$ Hilbert space is then built from an optimization problem of
transferring maximal possible probability from $\mathit{IN}$ to $\mathit{OUT}$,
this leads to the formulation of a new algebraic problem. Constructed Knowledge
Generalizing Operator $\mathcal{U}$ can be considered as a $\mathit{IN}$ to
$\mathit{OUT}$ quantum channel; it is a partially unitary rectangular matrix of
the dimension $\mathrm{dim}(\mathit{OUT}) \times \mathrm{dim}(\mathit{IN})$
transforming operators as $A^{\mathit{OUT}}=\mathcal{U} A^{\mathit{IN}}
\mathcal{U}^{\dagger}$. Whereas only operator $\mathcal{U}$ projections squared
are observable
$\left\langle\mathit{OUT}|\mathcal{U}|\mathit{IN}\right\rangle^2$
(probabilities), the fundamental equation is formulated for the operator
$\mathcal{U}$ itself. This is the reason of high generalizing power of the
approach; the situation is the same as for the Schr\"{o}dinger equation: we can
only measure $\psi^2$, but the equation is written for $\psi$ itself.
- Abstract(参考訳): 一般化力の高いML知識表現の新たな形式を開発し,数値的に実装した。
初期$\mathit{IN}$属性と$\mathit{OUT}$クラスラベルは、局所波動関数を考慮して対応するヒルベルト空間に変換する。
部分ユニタリ作用素が状態を $\mathit{IN}$ Hilbert space から $\mathit{OUT}$ Hilbert space に最適に変換すると、極大確率を $\mathit{IN}$ から $\mathit{OUT}$ に転送する最適化問題から構築される。
Constructed Knowledge Generalizing Operator $\mathcal{U}$ は $\mathit{IN}$ から $\mathit{OUT}$ の量子チャネルとみなすことができ、これは次元 $\mathrm{dim}(\mathit{OUT}) \times \mathrm{dim}(\mathit{in})$ として作用素を $A^{\mathit{OUT}}=\mathcal{U} A^{\mathit{IN}} \mathcal{U}^{\dagger}$ として変換したものである。
作用素 $\mathcal{U}$ の射影が可観測性 $\left\langle\mathit{OUT}|\mathcal{U}|\mathit{IN}\right\rangle^2$ (確率) であるのに対して、基本方程式は作用素 $\mathcal{U}$ 自身に対して定式化される。
これは、アプローチの高一般化力の理由であり、状況はシュル・"{o}dinger"方程式と同じである:$\psi^2$しか測れないが、この方程式は$\psi$自身のために書かれる。
関連論文リスト
- On the Complexity of Pure-State Consistency of Local Density Matrices [0.0]
局所密度行列(mathsfPureCLDM$)および純$N$-representability(mathsfPure$-$N$-$mathsfRepresentability$)問題の純粋整合性について検討する。
この新しいクラスには$mathsfPure$-$N$-$mathsfRepresentability$と$mathsfPureCLDM$の両方が完了していることを証明します。
論文 参考訳(メタデータ) (2024-11-05T13:43:21Z) - The Communication Complexity of Approximating Matrix Rank [50.6867896228563]
この問題は通信複雑性のランダム化を$Omega(frac1kcdot n2log|mathbbF|)$とする。
アプリケーションとして、$k$パスを持つ任意のストリーミングアルゴリズムに対して、$Omega(frac1kcdot n2log|mathbbF|)$スペースローバウンドを得る。
論文 参考訳(メタデータ) (2024-10-26T06:21:42Z) - On Partially Unitary Learning [0.0]
ヒルベルト空間の最適写像 $IN$ of $left|psirightrangle$ と $OUT$ of $left|phirightrangle$ が提示される。
この最適化問題の大域的な最大化を求めるアルゴリズムを開発し,多くの問題に適用した。
論文 参考訳(メタデータ) (2024-05-16T17:13:55Z) - Towards verifications of Krylov complexity [0.0]
私は16の量子力学系のモーメントの完全かつ明示的な表現をSchr"odinger と Heisenberg の両方で正確に解けるように提示する。
論文 参考訳(メタデータ) (2024-03-11T02:57:08Z) - Provably learning a multi-head attention layer [55.2904547651831]
マルチヘッドアテンション層は、従来のフィードフォワードモデルとは分離したトランスフォーマーアーキテクチャの重要な構成要素の1つである。
本研究では,ランダムな例から多面的注意層を実証的に学習する研究を開始する。
最悪の場合、$m$に対する指数的依存は避けられないことを示す。
論文 参考訳(メタデータ) (2024-02-06T15:39:09Z) - Quantum Oblivious LWE Sampling and Insecurity of Standard Model Lattice-Based SNARKs [4.130591018565202]
Learning Errors With Errors(mathsfLWE$)問題は$(mathbfAmathbfs+mathbfe$)という形式の入力から$mathbfs$を見つけるように要求する
私たちは$mathsfLWE$の解決ではなく、インスタンスをサンプリングするタスクに注力しています。
我々の主な成果は、よく分散された$mathsfLWE$インスタンスをサンプリングする量子時間アルゴリズムである。
論文 参考訳(メタデータ) (2024-01-08T10:55:41Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Uncertainties in Quantum Measurements: A Quantum Tomography [52.77024349608834]
量子系 $S$ に関連する可観測物は非可換代数 $mathcal A_S$ を形成する。
密度行列 $rho$ は可観測物の期待値から決定できると仮定される。
アーベル代数は内部自己同型を持たないので、測定装置は可観測物の平均値を決定することができる。
論文 参考訳(メタデータ) (2021-12-14T16:29:53Z) - Threshold Phenomena in Learning Halfspaces with Massart Noise [56.01192577666607]
ガウス境界の下でのマスアートノイズ付きmathbbRd$におけるPAC学習ハーフスペースの問題について検討する。
この結果は,Massartモデルにおける学習ハーフスペースの複雑さを定性的に特徴づけるものである。
論文 参考訳(メタデータ) (2021-08-19T16:16:48Z) - Near-Optimal SQ Lower Bounds for Agnostically Learning Halfspaces and
ReLUs under Gaussian Marginals [49.60752558064027]
ガウス境界の下では、半空間とReLUを不可知的に学習する基本的な問題について検討する。
我々の下限は、これらのタスクの現在の上限が本質的に最良のものであるという強い証拠を与える。
論文 参考訳(メタデータ) (2020-06-29T17:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。