論文の概要: Enhanced quantum state preparation via stochastic prediction of neural
network
- arxiv url: http://arxiv.org/abs/2307.14715v1
- Date: Thu, 27 Jul 2023 09:11:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-28 15:12:08.507494
- Title: Enhanced quantum state preparation via stochastic prediction of neural
network
- Title(参考訳): ニューラルネットワークの確率的予測による量子状態の生成
- Authors: Chao-Chao Li, Run-Hong He, Zhao-Ming Wang
- Abstract要約: 本稿では,ニューラルネットワークの知識盲点を生かして,アルゴリズムの有効性を高めるための興味深い道を探る。
本手法は,半導体ダブル量子ドットシステムにおける任意の量子状態の生成に使用される機械学習アルゴリズムを中心にしている。
ニューラルネットワークが生成した予測を活用することにより、最適化プロセスの導出により、局所最適化を回避できる。
- 参考スコア(独自算出の注目度): 0.8287206589886881
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In pursuit of enhancing the predication capabilities of the neural network,
it has been a longstanding objective to create dataset encompassing a diverse
array of samples. The purpose is to broaden the horizons of neural network and
continually strive for improved prediction accuracy during training process,
which serves as the ultimate evaluation metric. In this paper, we explore an
intriguing avenue for enhancing algorithm effectiveness through exploiting the
knowledge blindness of neural network. Our approach centers around a machine
learning algorithm utilized for preparing arbitrary quantum states in a
semiconductor double quantum dot system, a system characterized by highly
constrained control degrees of freedom. By leveraging stochastic prediction
generated by the neural network, we are able to guide the optimization process
to escape local optima. Notably, unlike previous methodologies that employ
reinforcement learning to identify pulse patterns, we adopt a training approach
akin to supervised learning, ultimately using it to dynamically design the
pulse sequence. This approach not only streamlines the learning process but
also constrains the size of neural network, thereby improving the efficiency of
algorithm.
- Abstract(参考訳): ニューラルネットワークの述語能力の向上を追求するため、さまざまなサンプルを包含するデータセットの作成は長年にわたって目標とされてきた。
その目的は、ニューラルネットワークの地平線を広げ、トレーニングプロセス中に予測精度を向上させるよう継続的に努力することであり、これは究極の評価指標である。
本稿では,ニューラルネットワークの知識盲点を生かして,アルゴリズムの有効性を高めるための興味深い道を探る。
我々のアプローチは、半導体二重量子ドットシステムにおいて任意の量子状態を作成するために使用される機械学習アルゴリズムを中心にしている。
ニューラルネットワークが生成する確率的予測を利用することで,局所的オプティマから逃れるために最適化プロセスを導くことができる。
特に、強化学習を用いてパルスパターンを識別する従来の手法とは異なり、教師あり学習に似たトレーニングアプローチを採用し、最終的にはパルスシーケンスを動的に設計する。
このアプローチは学習プロセスを合理化するだけでなく、ニューラルネットワークのサイズを制限し、アルゴリズムの効率を向上させる。
関連論文リスト
- Peer-to-Peer Learning Dynamics of Wide Neural Networks [10.179711440042123]
我々は,一般的なDGDアルゴリズムを用いて学習した広範ニューラルネットワークの学習力学を,明示的で非漸近的に特徴づける。
我々は,誤りや誤りを正確に予測し,分析結果を検証した。
論文 参考訳(メタデータ) (2024-09-23T17:57:58Z) - Deep Learning and genetic algorithms for cosmological Bayesian inference speed-up [0.0]
本稿では,ネストサンプリングアルゴリズムに特化してベイズ推論を高速化する新しい手法を提案する。
提案手法は,ベイズ推論過程における確率関数を動的に近似するために,フィードフォワードニューラルネットワークを用いてディープラーニングのパワーを利用する。
この実装はネストサンプリングアルゴリズムと統合され、単純な宇宙学のダークエネルギーモデルと多様な観測データセットの両方を用いて徹底的に評価されている。
論文 参考訳(メタデータ) (2024-05-06T09:14:58Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - CCasGNN: Collaborative Cascade Prediction Based on Graph Neural Networks [0.49269463638915806]
カスケード予測は,ネットワーク内の情報拡散をモデル化することを目的とした。
グラフニューラルネットワークとリカレントニューラルネットワークによるネットワーク構造とシーケンス特徴の組み合わせに関する研究
本稿では,個々のプロファイル,構造特徴,シーケンス情報を考慮した新しいCCasGNNを提案する。
論文 参考訳(メタデータ) (2021-12-07T11:37:36Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Markovian Quantum Neuroevolution for Machine Learning [0.0]
本稿では,機械学習タスクに最適な量子ニューラルネットワークを自律的に見つける量子神経進化アルゴリズムを提案する。
特に、量子回路と有向グラフの1対1マッピングを確立し、適切なゲート列を見つける問題を減らす。
論文 参考訳(メタデータ) (2020-12-30T12:42:38Z) - Stochastic Markov Gradient Descent and Training Low-Bit Neural Networks [77.34726150561087]
本稿では,量子化ニューラルネットワークのトレーニングに適用可能な離散最適化手法であるGradient Markov Descent (SMGD)を紹介する。
アルゴリズム性能の理論的保証と数値的な結果の促進を提供する。
論文 参考訳(メタデータ) (2020-08-25T15:48:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。