論文の概要: Quantum Advantage in Learning Mixed Unitary Channels
- arxiv url: http://arxiv.org/abs/2511.13683v1
- Date: Mon, 17 Nov 2025 18:37:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 18:52:09.677006
- Title: Quantum Advantage in Learning Mixed Unitary Channels
- Title(参考訳): 混合ユニタリチャネル学習における量子アドバンテージ
- Authors: Yue Tu, Liang Jiang,
- Abstract要約: 魚介類情報を用いた混成ユニタリチャネル学習の課題について検討する。
我々の結果は、サンプルの複雑さが$fracrdvarepsilon2$で、$r$はチャネルのランクであることを示している。
- 参考スコア(独自算出の注目度): 1.187088467362709
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the task of learning mixed unitary channels using Fisher information, under different quantum resource assumptions including ancilla and concatenation. Our result shows that the asymptotic sample complexity scales as $\frac{r}{d\varepsilon^2}$, where $r$ is the rank of the channel (i.e.\ the number of different unitaries), $d$ is the dimension of the system, and $\varepsilon^2$ is the mean-square error. Thus the critical resource is the ancilla, which mirrors the result in~\cite{chen2022quantum} but in a more precise form, as we point out that $r$ is also important. Additionally, we demonstrate the practical potential of mixed unitary channels by showing that random mixed unitary channels are easy to learn.
- Abstract(参考訳): 本稿では,アシラや結合といった異なる量子資源仮定の下で,フィッシャー情報を用いた混合ユニタリチャネルの学習課題について検討する。
我々の結果は、漸近的なサンプル複雑性が$\frac{r}{d\varepsilon^2}$、$r$がチャネルのランク(すなわち異なるユニタリの数)、$d$がシステムの次元、$\varepsilon^2$が平均二乗誤差であることを示している。
したがって、重要なリソースは ancilla であり、これは結果を~\cite{chen2022quantum} で反映するが、より正確な形で、r$ も重要であることを指摘した。
さらに、ランダムな混合ユニタリチャネルを学習し易いことを示すことで、混合ユニタリチャネルの実用可能性を示す。
関連論文リスト
- Neural Networks Learn Generic Multi-Index Models Near Information-Theoretic Limit [66.20349460098275]
一般ガウス多次元モデル $f(boldsymbolx)=g(boldsymbolUboldsymbolx)$ の勾配降下学習を隠蔽部分空間 $boldsymbolUin mathbbRrtimes d$ で研究する。
リンク関数上の一般的な非退化仮定の下では、層次勾配勾配勾配によって訓練された標準的な2層ニューラルネットワークは、$o_d(1)$テスト誤差でターゲットを不可知的に学習できることを示す。
論文 参考訳(メタデータ) (2025-11-19T04:46:47Z) - The Sample Complexity of Smooth Boosting and the Tightness of the Hardcore Theorem [53.446980306786095]
スムースブースターは任意の例にあまり重みを付けない分布を生成する。
もともとは耐雑音性のために導入されたが、そのようなブースターは微分プライバシー、軽度、量子学習理論にも応用されている。
論文 参考訳(メタデータ) (2024-09-17T23:09:25Z) - Entanglement-enabled advantage for learning a bosonic random displacement channel [6.354564715928202]
量子絡み合いは、ボソニック連続変数系の学習特性において指数関数的に有利であることを示す。
簡単な絡み合わせ支援スキームは、十分な量のスクイーズを条件に、$n$に依存しないサンプル数だけを必要とする。
本研究は, 連続変数システム学習における絡み合いの役割を照らし, 証明可能な絡み合いを生かした実験的な実証を目指している。
論文 参考訳(メタデータ) (2024-02-29T02:30:39Z) - Entanglement-assisted classical capacities of some channels acting as radial multipliers on fermion algebras [0.0]
我々は$mathrmM_2k$上の新しい単位量子計算チャネルのクラスについて検討する。
有限次元フェルミオン代数を持つ行列代数 $mathrmM_2k$ を同定する。
我々の計算はフェルミオンオルンシュタイン-ウレンベック半群の作用素に適用できる正確な値を得る。
論文 参考訳(メタデータ) (2024-02-23T16:58:31Z) - Tight bounds on Pauli channel learning without entanglement [2.2845597309741157]
我々は,絡み合いのない学習アルゴリズムを,主利得システムと補助システムとを分離可能な状態,測定,操作のみを利用するものとみなしている。
これらのアルゴリズムは、中間回路の測定と古典的なフィードフォワードにインターリーブされたメインシステムに量子回路を適用するものと等価であることを示す。
論文 参考訳(メタデータ) (2023-09-23T19:12:29Z) - Computational Complexity of Learning Neural Networks: Smoothness and
Degeneracy [52.40331776572531]
ガウス入力分布下での学習深度3$ReLUネットワークはスムーズな解析フレームワークにおいても困難であることを示す。
この結果は, 局所擬似乱数発生器の存在についてよく研究されている。
論文 参考訳(メタデータ) (2023-02-15T02:00:26Z) - A Law of Robustness beyond Isoperimetry [84.33752026418045]
我々は、任意の分布上でニューラルネットワークパラメータを補間する頑健性の低い$Omega(sqrtn/p)$を証明した。
次に、$n=mathrmpoly(d)$のとき、スムーズなデータに対する過度なパラメータ化の利点を示す。
我々は、$n=exp(omega(d))$ のとき、$O(1)$-Lipschitz の頑健な補間関数の存在を否定する。
論文 参考訳(メタデータ) (2022-02-23T16:10:23Z) - Dephasing superchannels [0.09545101073027092]
我々は, 量子チャネルのコヒーレントな特性を低下させる環境騒音のクラスを, 強調するスーパーチャネルの特性を導入, 解析することによって特徴付ける。
これらは、量子チャネル$mathcalE$の古典的でない性質だけに影響を与える超チャネルとして定義される。
そのような超チャネル $Xi_C$ が Jamiolkowski 状態 $J(mathcalE)$ of a channel $mathcalE$ via a Schur product, $J'=J
論文 参考訳(メタデータ) (2021-07-14T10:10:46Z) - Locality defeats the curse of dimensionality in convolutional
teacher-student scenarios [69.2027612631023]
学習曲線指数$beta$を決定する上で,局所性が重要であることを示す。
我々は、自然の仮定を用いて、トレーニングセットのサイズに応じて減少するリッジでカーネルレグレッションを実行すると、リッジレスの場合と同じような学習曲線指数が得られることを証明して結論付けた。
論文 参考訳(メタデータ) (2021-06-16T08:27:31Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z) - On the mixed-unitary rank of quantum channels [0.36944296923226316]
このようなチャネルの混合ユニタリ階数は、この形式の表現に必要な異なるユニタリ共役の最小数である。
不等式である$Nleq r2-r+1$は、混合ユニタリチャネル毎に満足であることを示す。
また,混合単位Werner-Holevoチャネルの混合単位位についても検討した。
論文 参考訳(メタデータ) (2020-03-31T17:51:56Z) - Neural Bayes: A Generic Parameterization Method for Unsupervised
Representation Learning [175.34232468746245]
本稿ではニューラルベイズと呼ばれるパラメータ化手法を提案する。
これは一般に計算が難しい統計量の計算を可能にする。
このパラメータ化のための2つの独立したユースケースを示す。
論文 参考訳(メタデータ) (2020-02-20T22:28:53Z) - Algebraic and Analytic Approaches for Parameter Learning in Mixture
Models [66.96778152993858]
1次元の混合モデルにおけるパラメータ学習のための2つの異なるアプローチを提案する。
これらの分布のいくつかについては、パラメータ推定の最初の保証を示す。
論文 参考訳(メタデータ) (2020-01-19T05:10:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。