論文の概要: Approximation rates of quantum neural networks for periodic functions via Jackson's inequality
- arxiv url: http://arxiv.org/abs/2511.16149v2
- Date: Wed, 26 Nov 2025 13:02:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 14:46:34.307609
- Title: Approximation rates of quantum neural networks for periodic functions via Jackson's inequality
- Title(参考訳): ジャクソンの不等式による周期関数に対する量子ニューラルネットワークの近似速度
- Authors: Ariel Neufeld, Philipp Schmocker, Viet Khoa Tran,
- Abstract要約: 量子ニューラルネットワーク(Quantum Neural Network, QNN)は、量子コンピューティングの世界における古典的なニューラルネットワークのアナログである。
周期関数に対するQNNの近似能力について検討する。
- 参考スコア(独自算出の注目度): 2.217547045999963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum neural networks (QNNs) are an analog of classical neural networks in the world of quantum computing, which are represented by a unitary matrix with trainable parameters. Inspired by the universal approximation property of classical neural networks, ensuring that every continuous function can be arbitrarily well approximated uniformly on a compact set of a Euclidean space, some recent works have established analogous results for QNNs, ranging from single-qubit to multi-qubit QNNs, and even hybrid classical-quantum models. In this paper, we study the approximation capabilities of QNNs for periodic functions with respect to the supremum norm. We use the Jackson inequality to approximate a given function by implementing its approximating trigonometric polynomial via a suitable QNN. In particular, we see that by restricting to the class of periodic functions, one can achieve a quadratic reduction of the number of parameters, producing better approximation results than in the literature. Moreover, the smoother the function, the fewer parameters are needed to construct a QNN to approximate the function.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)は、量子コンピューティングの世界における古典的なニューラルネットワークのアナログであり、訓練可能なパラメータを持つユニタリ行列で表される。
古典的ニューラルネットワークの普遍近似特性に着想を得て、任意の連続関数がユークリッド空間のコンパクトな集合上で任意に適切に近似できることを保証し、近年のいくつかの研究は、単一量子ビットから多量子QNN、さらにはハイブリッド古典量子モデルまで、QNNの類似した結果を確立している。
本稿では,QNNの周期関数に対する最大ノルムに対する近似能力について検討する。
我々はジャクソンの不等式を用いて、適切なQNNを通して三角多項式を近似することで、与えられた関数を近似する。
特に、周期関数のクラスに制限を加えることで、パラメータの数を2次的に減らし、文献よりも近似結果が優れていることが分かる。
さらに、関数が滑らかになればなるほど、関数を近似するためにQNNを構築するためにパラメータが少なくなる。
関連論文リスト
- Fourier Neural Operators for Learning Dynamics in Quantum Spin Systems [77.88054335119074]
ランダム量子スピン系の進化をモデル化するためにFNOを用いる。
量子波動関数全体の2n$の代わりに、コンパクトなハミルトン観測可能集合にFNOを適用する。
論文 参考訳(メタデータ) (2024-09-05T07:18:09Z) - Universal Approximation Theorem and error bounds for quantum neural networks and quantum reservoirs [2.07180164747172]
ここでは、関数の特定のクラスに対して正確な誤差境界を提供し、これらの結果をランダム化された量子回路の興味深い新しいセットアップに拡張する。
特に, $mathcalO(varepsilon-2)$ weights および $mathcalO(lceil log_2(varepsilon-1) rceil)$ qubits suffices を用いて, 積分フーリエ変換で関数を近似すると, 精度が $varepsilon>0$ となることを示す。
論文 参考訳(メタデータ) (2023-07-24T15:52:33Z) - Power and limitations of single-qubit native quantum neural networks [5.526775342940154]
量子ニューラルネットワーク(QNN)は、機械学習、化学、最適化の応用を確立するための主要な戦略として登場した。
量子ニューラルネットワークのデータ再アップロードの表現能力に関する理論的枠組みを定式化する。
論文 参考訳(メタデータ) (2022-05-16T17:58:27Z) - Implementation of quantum stochastic walks for function approximation,
two-dimensional data classification, and sequence classification [0.0]
本稿では,グラフ上の量子ウォークに基づく量子ニューラルネットワークについて検討し,勾配勾配を用いてネットワークパラメータを更新する。
5つのニューロンを持つ単純なQSNNは、単語列が文であるか否かを判断するために訓練され、QSNNがトレーニングステップ数を削減できることがわかった。
論文 参考訳(メタデータ) (2021-03-04T13:29:38Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Variational Monte Carlo calculations of $\mathbf{A\leq 4}$ nuclei with
an artificial neural-network correlator ansatz [62.997667081978825]
光核の基底状態波動関数をモデル化するためのニューラルネットワーク量子状態アンサッツを導入する。
我々は、Aleq 4$核の結合エネルギーと点核密度を、上位のピオンレス実効場理論から生じるものとして計算する。
論文 参考訳(メタデータ) (2020-07-28T14:52:28Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Recurrent Quantum Neural Networks [7.6146285961466]
リカレントニューラルネットワークは、機械学習における多くのシーケンス対シーケンスモデルの基盤となっている。
非自明なタスクに対して実証可能な性能を持つ量子リカレントニューラルネットワーク(QRNN)を構築する。
我々はQRNNをMNIST分類で評価し、QRNNに各画像ピクセルを供給し、また、最新のデータ拡張を前処理のステップとして利用する。
論文 参考訳(メタデータ) (2020-06-25T17:59:44Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。