論文の概要: Mode connectivity in the loss landscape of parameterized quantum
circuits
- arxiv url: http://arxiv.org/abs/2111.05311v1
- Date: Tue, 9 Nov 2021 18:28:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 16:41:31.726114
- Title: Mode connectivity in the loss landscape of parameterized quantum
circuits
- Title(参考訳): パラメータ化量子回路の損失景観におけるモード接続
- Authors: Kathleen E. Hamilton and Emily Lynn and Raphael C. Pooser
- Abstract要約: パラメータ化量子回路(PQC)の変分訓練は、近時雑音型中間スケール量子(NISQ)デバイスに多く採用されている。
PQCトレーニングにおける損失ランドスケープの特徴を研究するために、引用したraxler 2018essentiallyで使用されるコネクティビティの視覚化とテストを行うために、citegoodfellowqualitatively,li 2017で導入されたニューラルネットワークの定性的な損失ランドスケープのキャラクタリゼーションを適用した。
- 参考スコア(独自算出の注目度): 1.7546369508217283
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variational training of parameterized quantum circuits (PQCs) underpins many
workflows employed on near-term noisy intermediate scale quantum (NISQ)
devices. It is a hybrid quantum-classical approach that minimizes an associated
cost function in order to train a parameterized ansatz. In this paper we adapt
the qualitative loss landscape characterization for neural networks introduced
in \cite{goodfellow2014qualitatively,li2017visualizing} and tests for
connectivity used in \cite{draxler2018essentially} to study the loss landscape
features in PQC training. We present results for PQCs trained on a simple
regression task, using the bilayer circuit ansatz, which consists of
alternating layers of parameterized rotation gates and entangling gates.
Multiple circuits are trained with $3$ different batch gradient optimizers:
stochastic gradient descent, the quantum natural gradient, and Adam. We
identify large features in the landscape that can lead to faster convergence in
training workflows.
- Abstract(参考訳): パラメータ化量子回路(PQC)の変分訓練は、近時雑音型中間スケール量子(NISQ)デバイスで使用される多くのワークフローを支える。
これは、パラメータ化されたアンサッツを訓練するために関連するコスト関数を最小化するハイブリッド量子古典的アプローチである。
本稿では,PQCトレーニングで導入されたニューラルネットワークの質的損失ランドスケープ特性と,PQCトレーニングにおける損失ランドスケープ特性を調べるために,cipe{goodfellow2014qualitatively,li2017visualizing}で使用される接続性のテストを適用する。
パラメータ化された回転ゲートと絡み合うゲートの交互層からなる二層回路ansatzを用いて,簡単な回帰タスクで訓練したpqcsの結果を示す。
複数の回路は、確率的勾配降下、量子自然勾配、adamの3ドルの異なるバッチ勾配最適化器で訓練される。
私たちは、トレーニングワークフローの収束を早める可能性のある、ランドスケープの大きな機能を特定します。
関連論文リスト
- Improving Parameter Training for VQEs by Sequential Hamiltonian Assembly [4.646930308096446]
量子機械学習における中心的な課題は、パラメータ化量子回路(PQC)の設計と訓練である。
局所成分を用いて損失関数を反復的に近似する逐次ハミルトンアセンブリを提案する。
提案手法は,従来のパラメータトレーニングを29.99%,実証的手法であるレイヤワイズラーニングを5.12%,平均精度を5.12%向上させる。
論文 参考訳(メタデータ) (2023-12-09T11:47:32Z) - Backpropagation scaling in parameterised quantum circuits [0.0]
我々は、古典的にシミュレート可能でない回路を導入し、回路数を大幅に減らして勾配推定を許容する。
具体的には、これらの回路は勾配、高次偏微分、フィッシャー情報行列の高速な推定を可能にする。
16量子ビットの玩具分類問題では、これらの回路は他の手法と競合する性能を示し、トレーニングコストを約2桁削減する。
論文 参考訳(メタデータ) (2023-06-26T18:00:09Z) - Classical-to-Quantum Transfer Learning Facilitates Machine Learning with Variational Quantum Circuit [62.55763504085508]
本稿では,変分量子回路(VQC)を用いた古典的量子移動学習アーキテクチャにより,VQCモデルの表現と一般化(推定誤差)が向上することを証明する。
古典-量子遷移学習のアーキテクチャは、事前学習された古典的生成AIモデルを活用し、訓練段階におけるVQCの最適パラメータの発見を容易にする。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - FLIP: A flexible initializer for arbitrarily-sized parametrized quantum
circuits [105.54048699217668]
任意サイズのパラメタライズド量子回路のためのFLexible Initializerを提案する。
FLIPは任意の種類のPQCに適用することができ、初期パラメータの一般的なセットに頼る代わりに、成功したパラメータの構造を学ぶように調整されている。
本稿では, 3つのシナリオにおいてFLIPを用いることの利点を述べる。不毛な高原における問題ファミリ, 最大カット問題インスタンスを解くPQCトレーニング, 1次元フェルミ-ハッバードモデルの基底状態エネルギーを求めるPQCトレーニングである。
論文 参考訳(メタデータ) (2021-03-15T17:38:33Z) - A Statistical Framework for Low-bitwidth Training of Deep Neural
Networks [70.77754244060384]
フル量子化トレーニング(FQT)は、ニューラルネットワークモデルのアクティベーション、重み、勾配を定量化することで、低ビット幅のハードウェアを使用する。
FQTの最大の課題は、特に勾配量子化が収束特性にどのように影響するかという理論的な理解の欠如である。
論文 参考訳(メタデータ) (2020-10-27T13:57:33Z) - Characterizing the loss landscape of variational quantum circuits [77.34726150561087]
本稿では,VQCの損失関数のヘシアンを計算する方法を紹介する。
この情報がどのように解釈され、従来のニューラルネットワークと比較されるかを示す。
論文 参考訳(メタデータ) (2020-08-06T17:48:12Z) - Layerwise learning for quantum neural networks [7.2237324920669055]
パラメタライズド量子回路のレイヤワイズ学習戦略を示す。
回路深さは最適化中に漸進的に増加し、各トレーニングステップでパラメータのサブセットのみが更新される。
本研究では,手書き文字による画像分類タスクに対するアプローチを実証し,階層的学習が平均で8%低い一般化誤差を達成したことを示す。
論文 参考訳(メタデータ) (2020-06-26T10:44:46Z) - Large gradients via correlation in random parameterized quantum circuits [0.0]
コスト関数ランドスケープにおける指数関数的に消失する勾配の存在は、勾配降下法による最適化の障害となる。
パラメータ空間の次元性を減少させることで、消滅する勾配現象を回避できることを示す。
論文 参考訳(メタデータ) (2020-05-25T16:15:53Z) - Optimal Gradient Quantization Condition for Communication-Efficient
Distributed Training [99.42912552638168]
勾配の通信は、コンピュータビジョンアプリケーションで複数のデバイスでディープニューラルネットワークをトレーニングするのに費用がかかる。
本研究は,textbfANY勾配分布に対する二値および多値勾配量子化の最適条件を導出する。
最適条件に基づいて, 偏差BinGradと非偏差ORQの2値勾配量子化と多値勾配量子化の2つの新しい量子化手法を開発した。
論文 参考訳(メタデータ) (2020-02-25T18:28:39Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。