論文の概要: Quantum Sinusoidal Neural Networks
- arxiv url: http://arxiv.org/abs/2410.22016v2
- Date: Sun, 29 Jun 2025 10:03:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 19:22:01.891948
- Title: Quantum Sinusoidal Neural Networks
- Title(参考訳): 量子正弦波ニューラルネットワーク
- Authors: Zujin Wen, Jin-Long Huang, Oscar Dahlsten,
- Abstract要約: 我々は正弦波活性化関数を持つニューラルネットワークの量子バージョンを設計する。
私たちはそのパフォーマンスを古典的なケースと比較する。
量子正弦回路の周辺に量子最適化アルゴリズムを構築する。
- 参考スコア(独自算出の注目度): 0.6021787236982659
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We design a quantum version of neural networks with sinusoidal activation functions and compare its performance to the classical case. We create a general quantum sine circuit implementing a discretised sinusoidal activation function. Along the way, we define a classical discrete sinusoidal neural network. We build a quantum optimization algorithm around the quantum sine circuit, combining quantum search and phase estimation. This algorithm is guaranteed to find the weights with global minimum loss on the training data. We give a computational complexity analysis and demonstrate the algorithm in an example. We compare the performance with that of the standard gradient descent training method for classical sinusoidal neural networks. We show that (i) the standard classical training method typically leads to bad local minima in terms of mean squared error on test data and (ii) the weights that perform best on the training data generalise well to the test data. Points (i) and (ii) motivate using the quantum training algorithm, which is guaranteed to find the best weights on the training data.
- Abstract(参考訳): 我々は正弦波活性化関数を持つニューラルネットワークの量子バージョンを設計し、その性能を古典的ケースと比較する。
我々は、離散化された正弦波活性化関数を実装する一般的な量子正弦波回路を作成する。
その過程で、古典的な離散正弦波ニューラルネットワークを定義する。
量子サーチと位相推定を組み合わせた量子正弦回路の量子最適化アルゴリズムを構築した。
このアルゴリズムは、トレーニングデータに対して、世界最小損失の重みを見つけることが保証されている。
計算複雑性解析を行い、そのアルゴリズムを例に示す。
従来の正弦波ニューラルネットワークの標準勾配降下訓練法と比較した。
私たちはそれを示します
(i)標準の古典的訓練法は、テストデータの平均二乗誤差の点で、典型的には悪い局所最小化につながる。
二 トレーニングデータにおいて最善を尽くす重みは、試験データによく一般化する。
要点
(i)および
(II) トレーニングデータの最良の重みを見つけることが保証される量子トレーニングアルゴリズムを用いてモチベートする。
関連論文リスト
- Quantum-Enhanced Weight Optimization for Neural Networks Using Grover's Algorithm [0.0]
本稿では,古典的NNの重み付けを最適化するために量子コンピューティングを提案する。
我々は、NNの最適パラメータの探索を高速化するために、Groverの量子探索アルゴリズムのインスタンスを設計する。
提案手法は,他のQNN手法と比較して,より少ない量子ビットを必要とする。
論文 参考訳(メタデータ) (2025-04-20T10:59:04Z) - Newton Losses: Using Curvature Information for Learning with Differentiable Algorithms [80.37846867546517]
カスタム目的の8つの異なるニューラルネットワークのトレーニング方法を示す。
我々はその2次情報を経験的フィッシャー行列を通して活用する。
ロスロスロスシブルアルゴリズムを用いて、少ない微分可能アルゴリズムに対する大幅な改善を実現する。
論文 参考訳(メタデータ) (2024-10-24T18:02:11Z) - Training Artificial Neural Networks by Coordinate Search Algorithm [0.20971479389679332]
本稿では、ニューラルネットワークのトレーニングのための勾配自由座標探索(CS)アルゴリズムの効率的なバージョンを提案する。
提案アルゴリズムは、微分不可能なアクティベーション関数で使用することができ、多目的/マルチロス問題に適合する。
ANNの重みに対する最適値を求めることは、大規模な最適化問題である。
論文 参考訳(メタデータ) (2024-02-20T01:47:25Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Navigating Local Minima in Quantized Spiking Neural Networks [3.1351527202068445]
深層学習(DL)アルゴリズムの超効率的な実装においては,スパイキングと量子ニューラルネットワーク(NN)が極めて重要になっている。
これらのネットワークは、ハードしきい値を適用する際の勾配信号の欠如により、エラーのバックプロパゲーションを使用してトレーニングする際の課題に直面している。
本稿では,コサインアニールLRスケジュールと重み非依存適応モーメント推定を併用したシステム評価を行った。
論文 参考訳(メタデータ) (2022-02-15T06:42:25Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Efficient training of physics-informed neural networks via importance
sampling [2.9005223064604078]
Physics-In Neural Networks(PINN)は、偏微分方程式(PDE)によって制御されるシステムを計算するために訓練されているディープニューラルネットワークのクラスである。
重要サンプリング手法により,PINN訓練の収束挙動が改善されることが示唆された。
論文 参考訳(メタデータ) (2021-04-26T02:45:10Z) - GradFreeBits: Gradient Free Bit Allocation for Dynamic Low Precision
Neural Networks [4.511923587827301]
量子ニューラルネットワーク(QNN)は、低リソースエッジデバイスにディープニューラルネットワークをデプロイするための主要なアプローチのひとつだ。
動的QNNを訓練するための新しい共同最適化スキームであるGradFreeBitsを提案する。
本手法はCIFAR10/100上での最先端の低精度ニューラルネットワークと画像ネットの分類を同等あるいは同等の性能で実現している。
論文 参考訳(メタデータ) (2021-02-18T12:18:09Z) - SiMaN: Sign-to-Magnitude Network Binarization [165.5630656849309]
重みバイナライゼーションは、高倍率重みを+1s、0sに符号化することで分析ソリューションを提供する。
二元化ネットワークの学習重みは、エントロピーを許さないラプラシアン分布に概ね従うことが証明される。
CIFAR-10 と ImageNet を用いて,シマナライゼーション (SiMaN) と呼ばれる手法の評価を行った。
論文 参考訳(メタデータ) (2021-02-16T07:03:51Z) - Stochastic Markov Gradient Descent and Training Low-Bit Neural Networks [77.34726150561087]
本稿では,量子化ニューラルネットワークのトレーニングに適用可能な離散最適化手法であるGradient Markov Descent (SMGD)を紹介する。
アルゴリズム性能の理論的保証と数値的な結果の促進を提供する。
論文 参考訳(メタデータ) (2020-08-25T15:48:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。