論文の概要: Quantum Advantage in Learning Mixed Unitary Channels
- arxiv url: http://arxiv.org/abs/2511.13683v1
- Date: Mon, 17 Nov 2025 18:37:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 18:52:09.677006
- Title: Quantum Advantage in Learning Mixed Unitary Channels
- Title(参考訳): 混合ユニタリチャネル学習における量子アドバンテージ
- Authors: Yue Tu, Liang Jiang,
- Abstract要約: 魚介類情報を用いた混成ユニタリチャネル学習の課題について検討する。
我々の結果は、サンプルの複雑さが$fracrdvarepsilon2$で、$r$はチャネルのランクであることを示している。
- 参考スコア(独自算出の注目度): 1.187088467362709
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the task of learning mixed unitary channels using Fisher information, under different quantum resource assumptions including ancilla and concatenation. Our result shows that the asymptotic sample complexity scales as $\frac{r}{d\varepsilon^2}$, where $r$ is the rank of the channel (i.e.\ the number of different unitaries), $d$ is the dimension of the system, and $\varepsilon^2$ is the mean-square error. Thus the critical resource is the ancilla, which mirrors the result in~\cite{chen2022quantum} but in a more precise form, as we point out that $r$ is also important. Additionally, we demonstrate the practical potential of mixed unitary channels by showing that random mixed unitary channels are easy to learn.
- Abstract(参考訳): 本稿では,アシラや結合といった異なる量子資源仮定の下で,フィッシャー情報を用いた混合ユニタリチャネルの学習課題について検討する。
我々の結果は、漸近的なサンプル複雑性が$\frac{r}{d\varepsilon^2}$、$r$がチャネルのランク(すなわち異なるユニタリの数)、$d$がシステムの次元、$\varepsilon^2$が平均二乗誤差であることを示している。
したがって、重要なリソースは ancilla であり、これは結果を~\cite{chen2022quantum} で反映するが、より正確な形で、r$ も重要であることを指摘した。
さらに、ランダムな混合ユニタリチャネルを学習し易いことを示すことで、混合ユニタリチャネルの実用可能性を示す。
関連論文リスト
- The Sample Complexity of Smooth Boosting and the Tightness of the Hardcore Theorem [53.446980306786095]
スムースブースターは任意の例にあまり重みを付けない分布を生成する。
もともとは耐雑音性のために導入されたが、そのようなブースターは微分プライバシー、軽度、量子学習理論にも応用されている。
論文 参考訳(メタデータ) (2024-09-17T23:09:25Z) - Entanglement-enabled advantage for learning a bosonic random displacement channel [6.354564715928202]
量子絡み合いは、ボソニック連続変数系の学習特性において指数関数的に有利であることを示す。
簡単な絡み合わせ支援スキームは、十分な量のスクイーズを条件に、$n$に依存しないサンプル数だけを必要とする。
本研究は, 連続変数システム学習における絡み合いの役割を照らし, 証明可能な絡み合いを生かした実験的な実証を目指している。
論文 参考訳(メタデータ) (2024-02-29T02:30:39Z) - Tight bounds on Pauli channel learning without entanglement [2.2845597309741157]
我々は,絡み合いのない学習アルゴリズムを,主利得システムと補助システムとを分離可能な状態,測定,操作のみを利用するものとみなしている。
これらのアルゴリズムは、中間回路の測定と古典的なフィードフォワードにインターリーブされたメインシステムに量子回路を適用するものと等価であることを示す。
論文 参考訳(メタデータ) (2023-09-23T19:12:29Z) - Computational Complexity of Learning Neural Networks: Smoothness and
Degeneracy [52.40331776572531]
ガウス入力分布下での学習深度3$ReLUネットワークはスムーズな解析フレームワークにおいても困難であることを示す。
この結果は, 局所擬似乱数発生器の存在についてよく研究されている。
論文 参考訳(メタデータ) (2023-02-15T02:00:26Z) - A Law of Robustness beyond Isoperimetry [84.33752026418045]
我々は、任意の分布上でニューラルネットワークパラメータを補間する頑健性の低い$Omega(sqrtn/p)$を証明した。
次に、$n=mathrmpoly(d)$のとき、スムーズなデータに対する過度なパラメータ化の利点を示す。
我々は、$n=exp(omega(d))$ のとき、$O(1)$-Lipschitz の頑健な補間関数の存在を否定する。
論文 参考訳(メタデータ) (2022-02-23T16:10:23Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z) - Neural Bayes: A Generic Parameterization Method for Unsupervised
Representation Learning [175.34232468746245]
本稿ではニューラルベイズと呼ばれるパラメータ化手法を提案する。
これは一般に計算が難しい統計量の計算を可能にする。
このパラメータ化のための2つの独立したユースケースを示す。
論文 参考訳(メタデータ) (2020-02-20T22:28:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。