論文の概要: Regressions on quantum neural networks at maximal expressivity
- arxiv url: http://arxiv.org/abs/2311.06090v1
- Date: Fri, 10 Nov 2023 14:43:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 14:51:15.012268
- Title: Regressions on quantum neural networks at maximal expressivity
- Title(参考訳): 最大表現率における量子ニューラルネットワークの回帰
- Authors: Iv\'an Panadero, Yue Ban, Hilario Espin\'os, Ricardo Puebla, Jorge
Casanova and Erik Torrontegui
- Abstract要約: 我々は、ネストした量子ビット回転の連続として構成できる普遍的な深部ニューラルネットワークの表現性を分析する。
最大表現力は、ネットワークの深さとキュービット数によって増大するが、基本的にはデータ符号化機構によって拘束される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We analyze the expressivity of a universal deep neural network that can be
organized as a series of nested qubit rotations, accomplished by adjustable
data re-uploads. While the maximal expressive power increases with the depth of
the network and the number of qubits, it is fundamentally bounded by the data
encoding mechanism. Focusing on regression problems, we systematically
investigate the expressivity limits for different measurements and
architectures. The presence of entanglement, either by entangling layers or
global measurements, saturate towards this bound. In these cases, entanglement
leads to an enhancement of the approximation capabilities of the network
compared to local readouts of the individual qubits in non-entangling networks.
We attribute this enhancement to a larger survival set of Fourier harmonics
when decomposing the output signal.
- Abstract(参考訳): 本研究では,一連のネストした量子ビット回転として構成できる汎用深層ニューラルネットワークの表現性を分析し,データ再アップロードの調整によって実現する。
最大表現力はネットワークの深さとキュービット数によって増加するが、基本的にはデータ符号化機構によって制限される。
回帰問題に着目し,異なる測定値とアーキテクチャの表現限界を体系的に検討した。
層間の絡み合いや大域的な測定による絡み合いの存在は、この境界に向かって飽和する。
このような場合、絡み合いは、非絡み合いネットワークにおける個々のキュービットの局所的な読み出しと比較して、ネットワークの近似能力の向上につながる。
この拡張は、出力信号の分解時にフーリエ高調波のより大きなサバイバルセットを特徴付ける。
関連論文リスト
- On the growth of the parameters of approximating ReLU neural networks [0.542249320079018]
この研究は、与えられた滑らかな関数を近似する完全連結フィードフォワードReLUニューラルネットワークの解析に焦点を当てる。
アーキテクチャの増大にともなう,従来の普遍近似特性とは対照的に,近似ネットワークのパラメータの増大が懸念される。
論文 参考訳(メタデータ) (2024-06-21T07:45:28Z) - Spectral complexity of deep neural networks [2.099922236065961]
我々は,ネットワークアーキテクチャの複雑さを特徴付けるために,制限場の角パワースペクトルを用いる。
そこで我々は,ニューラルネットワークを低次,スパース,高次と分類する。
本稿では,この分類が標準アクティベーション関数の様々な特徴,特にReLUネットワークの空間特性を如何に強調するかを示す。
論文 参考訳(メタデータ) (2024-05-15T17:55:05Z) - Enhancing the expressivity of quantum neural networks with residual
connections [0.0]
量子残差ニューラルネットワーク(QResNets)を実装する量子回路に基づくアルゴリズムを提案する。
我々の研究は、古典的残留ニューラルネットワークの完全な量子的実装の基礎を築いた。
論文 参考訳(メタデータ) (2024-01-29T04:00:51Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - A Scalable Walsh-Hadamard Regularizer to Overcome the Low-degree
Spectral Bias of Neural Networks [79.28094304325116]
任意の関数を学習するニューラルネットワークの能力にもかかわらず、勾配降下によって訓練されたモデルは、しばしばより単純な関数に対するバイアスを示す。
我々は、この低度周波数に対するスペクトルバイアスが、現実のデータセットにおけるニューラルネットワークの一般化を実際にいかに損なうかを示す。
本稿では,ニューラルネットワークによる高次周波数学習を支援する,スケーラブルな機能正規化手法を提案する。
論文 参考訳(メタデータ) (2023-05-16T20:06:01Z) - Exploring the Approximation Capabilities of Multiplicative Neural
Networks for Smooth Functions [9.936974568429173]
対象関数のクラスは、一般化帯域制限関数とソボレフ型球である。
以上の結果から、乗法ニューラルネットワークは、これらの関数をはるかに少ない層とニューロンで近似できることを示した。
これらの結果は、乗法ゲートが標準フィードフォワード層より優れ、ニューラルネットワーク設計を改善する可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-01-11T17:57:33Z) - Dense Hebbian neural networks: a replica symmetric picture of supervised
learning [4.133728123207142]
我々は教師が指導する高密度で連想的なニューラルネットについて検討する。
スピングラスの統計力学およびモンテカルロシミュレーションによる数値計算能力の解析を行った。
論文 参考訳(メタデータ) (2022-11-25T13:37:47Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。