論文の概要: Compton Form Factor Extraction using Quantum Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2504.15458v1
- Date: Mon, 21 Apr 2025 21:56:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-01 01:19:04.555655
- Title: Compton Form Factor Extraction using Quantum Deep Neural Networks
- Title(参考訳): 量子深部ニューラルネットワークを用いたコンプトン形状因子抽出
- Authors: Brandon Le, Dustin Keller,
- Abstract要約: 古典的ディープニューラルネットワーク(CDNN)と量子ディープニューラルネットワーク(QDNN)の両方を用いてコンプトンフォームファクターの抽出を行う。
比較研究により、QDNNはCDNNよりも優れており、モデル複雑度が制限された場合でも予測精度と精度が向上していることが明らかになった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extraction tests of Compton Form Factors are performed using pseudodata based on experimental data from Deeply Virtual Compton Scattering experiments conducted at Jefferson Lab. The standard Belitsky, Kirchner, and Muller formalism at twist-two is employed, along with a fitting procedure designed to reduce model dependency similar to traditional local fits. The extraction of the Compton Form Factors is performed using both Classical Deep Neural Networks (CDNNs) and Quantum Deep Neural Networks (QDNNs). Comparative studies reveal that QDNNs outperform CDNNs for this application, demonstrating improved predictive accuracy and precision even for limited model complexity. The results demonstrate the potential of QDNNs for future studies in which quantum algorithms can be fully optimized.
- Abstract(参考訳): ジェファーソン研究所で行われたDeeply Virtual Compton Scattering実験から得られた実験データをもとに,擬似データを用いてコンプトン形状因子の抽出試験を行った。
ツイスト2での標準的なベリツキー、キルヒナー、ミュラーの形式主義が採用され、従来の局所的な適合と類似したモデルの依存性を減らすために設計された。
コンプトンフォームファクターの抽出は、古典的ディープニューラルネットワーク(CDNN)と量子ディープニューラルネットワーク(QDNN)の両方を用いて行われる。
比較研究により、QDNNはCDNNよりも優れており、モデル複雑度が制限された場合でも予測精度と精度が向上していることが明らかとなった。
その結果、量子アルゴリズムを完全に最適化できる将来の研究におけるQDNNの可能性が示された。
関連論文リスト
- Coherent Feed Forward Quantum Neural Network [2.1178416840822027]
量子ニューラルネットワーク(QNN)に焦点をあてた量子機械学習は、いまだに膨大な研究分野である。
適応可能な中間層とノードの観点から,従来のFFNNの汎用性とシームレスに整合するボナフェイドQNNモデルを提案する。
本研究では,診断乳がん(Wisconsin)やクレジットカード不正検出データセットなど,さまざまなベンチマークデータセットを用いて提案モデルを検証した。
論文 参考訳(メタデータ) (2024-02-01T15:13:26Z) - Generative Invertible Quantum Neural Networks [0.0]
Invertible Neural Networks (INNs) は、高度に複雑なデータのシミュレーションと生成のための確立されたツールとなっている。
本稿では、量子可逆ニューラルネットワーク(QINN)のための量子ゲートアルゴリズムを提案し、レプトンに崩壊するZボソンのジェット関連生成のLHCデータに適用する。
ハイブリッドQINNは、複雑なデータの学習と生成において、かなり大きな純粋に古典的な INN の性能と一致することがわかった。
論文 参考訳(メタデータ) (2023-02-24T21:25:07Z) - Spyker: High-performance Library for Spiking Deep Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)は、その有望な能力のために最近明かされた。
SNNは、以前の世代のニューラルネットワークよりも高い生物学的確率で脳をシミュレートする。
我々は,C++/CUDAをスクラッチから使用して,Spykerという高性能ライブラリを実装した。
論文 参考訳(メタデータ) (2023-01-31T14:25:03Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - The Spectral Bias of Polynomial Neural Networks [63.27903166253743]
PNN(Polynomial Neural Network)は、高頻度情報を重要視する画像生成と顔認識に特に有効であることが示されている。
これまでの研究では、ニューラルネットワークが低周波関数に対して$textitspectral bias$を示しており、トレーニング中に低周波成分のより高速な学習をもたらすことが示されている。
このような研究に触発されて、我々はPNNのTangent Kernel(NTK)のスペクトル分析を行う。
我々は、最近提案されたPNNのパラメトリゼーションである$Pi$-Netファミリがスピードアップすることを発見した。
論文 参考訳(メタデータ) (2022-02-27T23:12:43Z) - Low-bit Quantization of Recurrent Neural Network Language Models Using
Alternating Direction Methods of Multipliers [67.688697838109]
本稿では、乗算器の交互方向法(ADMM)を用いて、スクラッチから量子化RNNLMを訓練する新しい手法を提案する。
2つのタスクの実験から、提案されたADMM量子化は、完全な精度ベースライン RNNLM で最大31倍のモデルサイズ圧縮係数を達成したことが示唆された。
論文 参考訳(メタデータ) (2021-11-29T09:30:06Z) - Quantum-inspired Complex Convolutional Neural Networks [17.65730040410185]
我々は、より豊かな表現能力とより良い非線形性を持つ複素数値重みを利用することにより、量子刺激ニューロンを改善した。
我々は、高次元データを処理できる量子インスパイアされた畳み込みニューラルネットワーク(QICNN)のモデルを描く。
5つのQICNNの分類精度をMNISTとCIFAR-10データセットで検証した。
論文 参考訳(メタデータ) (2021-10-31T03:10:48Z) - Quantum Convolutional Neural Networks for High Energy Physics Data
Analysis [7.0132255816377445]
本研究では、高エネルギー物理事象の分類のための量子畳み込みニューラルネットワーク(QCNN)を提案する。
提案するアーキテクチャは、従来の畳み込みニューラルネットワーク(cnns)よりも、同じ数のパラメータで高速に学習する量子的な利点を示す。
論文 参考訳(メタデータ) (2020-12-22T17:14:47Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。