論文の概要: Compton Form Factor Extraction using Quantum Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2504.15458v2
- Date: Tue, 29 Jul 2025 17:47:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 14:59:51.085632
- Title: Compton Form Factor Extraction using Quantum Deep Neural Networks
- Title(参考訳): 量子深部ニューラルネットワークを用いたコンプトン形状因子抽出
- Authors: Brandon B. Le, Dustin Keller,
- Abstract要約: 本稿では,量子Deep Networks (QDNNs) を用いたDeeply Virtual Compton Scattering (DVCS) 実験からCompton Form Factors (CFFs) を抽出する。
CFFの擬似抽出テストは、古典的ディープニューラルネットワーク(CDNN)とNNの両方を用いて実施され、詳細な比較分析を行う。
以上の結果から,CDNNNはCDNNよりも優れ,予測精度が向上し,複雑度が制限されることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an extraction of Compton Form Factors (CFFs) from Deeply Virtual Compton Scattering (DVCS) experiments conducted at Thomas Jefferson National Accelerator Facility, utilizing Quantum Deep Neural Networks (QDNNs). The analysis employs the standard Belitsky, Kirchner, and M\"uller formalism at twist-two, complemented by a fitting procedure designed to minimize model dependence in a manner analogous to conventional local fits. A pseudodata extraction test of the CFFs is performed using both Classical Deep Neural Networks (CDNNs) and QDNNs, with a detailed comparative analysis. Results indicate that QDNNs can outperform CDNNs in particular cases, offering enhanced predictive accuracy and precision even with limited model complexity. Motivated by this, we develop a metric to quantify the extent of the quantum advantage based on characteristics of DVCS experimental data. These findings underscore the promising role of QDNNs in advancing future investigations into multidimensional parton distributions and hadronic physics.
- Abstract(参考訳): 本稿では,トーマス・ジェファーソン国立加速器施設で行われたDeeply Virtual Compton Scattering (DVCS) 実験から,量子Deep Neural Networks (QDNNs) を用いたCompton Form Factors (CFFs) の抽出について述べる。
この分析は、標準のベリツキー、キルヒナー、M\"uller formalismをツイスト2で採用し、従来の局所適合と類似した方法でモデル依存を最小限に抑えるために設計されたフィッティング手順を補完する。
CFFの擬似データ抽出テストは、古典的ディープニューラルネットワーク(CDNN)とQDNNの両方を用いて、詳細な比較分析を行う。
その結果、QDNNはCDNNよりも優れており、モデル複雑性が制限された場合でも予測精度と精度が向上していることがわかった。
そこで我々は,DVCS実験データの特徴に基づいて,量子優位性の範囲を定量化する指標を開発した。
これらの結果は,多次元パルトン分布とハドロン物理の今後の研究におけるQDNNの役割を裏付けるものである。
関連論文リスト
- Coherent Feed Forward Quantum Neural Network [2.1178416840822027]
量子ニューラルネットワーク(QNN)に焦点をあてた量子機械学習は、いまだに膨大な研究分野である。
適応可能な中間層とノードの観点から,従来のFFNNの汎用性とシームレスに整合するボナフェイドQNNモデルを提案する。
本研究では,診断乳がん(Wisconsin)やクレジットカード不正検出データセットなど,さまざまなベンチマークデータセットを用いて提案モデルを検証した。
論文 参考訳(メタデータ) (2024-02-01T15:13:26Z) - Generative Invertible Quantum Neural Networks [0.0]
Invertible Neural Networks (INNs) は、高度に複雑なデータのシミュレーションと生成のための確立されたツールとなっている。
本稿では、量子可逆ニューラルネットワーク(QINN)のための量子ゲートアルゴリズムを提案し、レプトンに崩壊するZボソンのジェット関連生成のLHCデータに適用する。
ハイブリッドQINNは、複雑なデータの学習と生成において、かなり大きな純粋に古典的な INN の性能と一致することがわかった。
論文 参考訳(メタデータ) (2023-02-24T21:25:07Z) - Spyker: High-performance Library for Spiking Deep Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)は、その有望な能力のために最近明かされた。
SNNは、以前の世代のニューラルネットワークよりも高い生物学的確率で脳をシミュレートする。
我々は,C++/CUDAをスクラッチから使用して,Spykerという高性能ライブラリを実装した。
論文 参考訳(メタデータ) (2023-01-31T14:25:03Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - The Spectral Bias of Polynomial Neural Networks [63.27903166253743]
PNN(Polynomial Neural Network)は、高頻度情報を重要視する画像生成と顔認識に特に有効であることが示されている。
これまでの研究では、ニューラルネットワークが低周波関数に対して$textitspectral bias$を示しており、トレーニング中に低周波成分のより高速な学習をもたらすことが示されている。
このような研究に触発されて、我々はPNNのTangent Kernel(NTK)のスペクトル分析を行う。
我々は、最近提案されたPNNのパラメトリゼーションである$Pi$-Netファミリがスピードアップすることを発見した。
論文 参考訳(メタデータ) (2022-02-27T23:12:43Z) - Low-bit Quantization of Recurrent Neural Network Language Models Using
Alternating Direction Methods of Multipliers [67.688697838109]
本稿では、乗算器の交互方向法(ADMM)を用いて、スクラッチから量子化RNNLMを訓練する新しい手法を提案する。
2つのタスクの実験から、提案されたADMM量子化は、完全な精度ベースライン RNNLM で最大31倍のモデルサイズ圧縮係数を達成したことが示唆された。
論文 参考訳(メタデータ) (2021-11-29T09:30:06Z) - Quantum-inspired Complex Convolutional Neural Networks [17.65730040410185]
我々は、より豊かな表現能力とより良い非線形性を持つ複素数値重みを利用することにより、量子刺激ニューロンを改善した。
我々は、高次元データを処理できる量子インスパイアされた畳み込みニューラルネットワーク(QICNN)のモデルを描く。
5つのQICNNの分類精度をMNISTとCIFAR-10データセットで検証した。
論文 参考訳(メタデータ) (2021-10-31T03:10:48Z) - Quantum Convolutional Neural Networks for High Energy Physics Data
Analysis [7.0132255816377445]
本研究では、高エネルギー物理事象の分類のための量子畳み込みニューラルネットワーク(QCNN)を提案する。
提案するアーキテクチャは、従来の畳み込みニューラルネットワーク(cnns)よりも、同じ数のパラメータで高速に学習する量子的な利点を示す。
論文 参考訳(メタデータ) (2020-12-22T17:14:47Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。