論文の概要: Quantum HyperNetworks: Training Binary Neural Networks in Quantum
Superposition
- arxiv url: http://arxiv.org/abs/2301.08292v1
- Date: Thu, 19 Jan 2023 20:06:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-23 14:16:19.650878
- Title: Quantum HyperNetworks: Training Binary Neural Networks in Quantum
Superposition
- Title(参考訳): Quantum HyperNetworks: 量子重ね合わせにおけるバイナリニューラルネットワークのトレーニング
- Authors: Juan Carrasquilla, Mohamed Hibat-Allah, Estelle Inack, Alireza
Makhzani, Kirill Neklyudov, Graham W. Taylor, Giacomo Torlai
- Abstract要約: 量子コンピュータ上でバイナリニューラルネットワークをトレーニングするメカニズムとして量子ハイパーネットを導入する。
提案手法は, 最適パラメータ, ハイパーパラメータ, アーキテクチャ選択を, 分類問題に対する高い確率で効果的に発見できることを示す。
私たちの統合されたアプローチは、機械学習の分野における他のアプリケーションにとって大きなスコープを提供します。
- 参考スコア(独自算出の注目度): 16.1356415877484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Binary neural networks, i.e., neural networks whose parameters and
activations are constrained to only two possible values, offer a compelling
avenue for the deployment of deep learning models on energy- and memory-limited
devices. However, their training, architectural design, and hyperparameter
tuning remain challenging as these involve multiple computationally expensive
combinatorial optimization problems. Here we introduce quantum hypernetworks as
a mechanism to train binary neural networks on quantum computers, which unify
the search over parameters, hyperparameters, and architectures in a single
optimization loop. Through classical simulations, we demonstrate that of our
approach effectively finds optimal parameters, hyperparameters and
architectural choices with high probability on classification problems
including a two-dimensional Gaussian dataset and a scaled-down version of the
MNIST handwritten digits. We represent our quantum hypernetworks as variational
quantum circuits, and find that an optimal circuit depth maximizes the
probability of finding performant binary neural networks. Our unified approach
provides an immense scope for other applications in the field of machine
learning.
- Abstract(参考訳): バイナリニューラルネットワーク、すなわち、パラメータとアクティベーションが2つの可能な値に制限されているニューラルネットワークは、エネルギーとメモリに制限されたデバイスにディープラーニングモデルをデプロイするための魅力的な道を提供する。
しかしながら、それらのトレーニング、アーキテクチャ設計、ハイパーパラメータチューニングは、複数の計算コストのかかる組合せ最適化問題を含むため、依然として困難である。
ここでは、量子コンピュータ上でバイナリニューラルネットワークをトレーニングするメカニズムとして量子ハイパーネットワークを導入し、パラメータ、ハイパーパラメータ、アーキテクチャの検索を単一の最適化ループで統一する。
古典的シミュレーションにより,2次元ガウスデータセットやMNIST手書き桁のスケールダウン版を含む分類問題に対して,最適パラメータ,ハイパーパラメータ,アーキテクチャ選択を高い確率で効果的に発見できることを示した。
我々は、量子ハイパーネットワークを変分量子回路として表現し、最適な回路深度は、高性能バイナリニューラルネットワークを見つける確率を最大化する。
私たちの統合されたアプローチは、機械学習の分野における他のアプリケーションにとって大きなスコープを提供します。
関連論文リスト
- Training-efficient density quantum machine learning [2.918930150557355]
量子機械学習は強力でフレキシブルで効率的にトレーニング可能なモデルを必要とする。
トレーニング可能なユニタリの集合にランダム化を組み込んだ学習モデルである密度量子ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-30T16:40:28Z) - Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Realization of a quantum neural network using repeat-until-success
circuits in a superconducting quantum processor [0.0]
本稿では、リアルタイム制御-フローフィードバックによって実現されたリピート・アンティル・サクセス回路を用いて、非線形活性化機能を持つ量子ニューロンを実現する。
例えば、2ビットから1ビットのブール関数をすべて学習できる最小限のフィードフォワード量子ニューラルネットワークを構築する。
このモデルは非線形分類を行い、全ての入力の最大重ね合わせからなる単一のトレーニング状態の複数のコピーから効果的に学習する。
論文 参考訳(メタデータ) (2022-12-21T03:26:32Z) - Hyperparameter Importance of Quantum Neural Networks Across Small
Datasets [1.1470070927586014]
量子ニューラルネットワークは、ニューラルネットワークと同じような役割を果たす。
機械学習に適した回路アーキテクチャについてはほとんど知られていない。
本研究は量子機械学習モデルを研究するための新しい手法を紹介する。
論文 参考訳(メタデータ) (2022-06-20T20:26:20Z) - Multiclass classification using quantum convolutional neural networks
with hybrid quantum-classical learning [0.5999777817331318]
本稿では,量子畳み込みニューラルネットワークに基づく量子機械学習手法を提案する。
提案手法を用いて,MNISTデータセットの4クラス分類を,データエンコーディングの8つのキュービットと4つのアクニラキュービットを用いて実証する。
この結果から,学習可能なパラメータの数に匹敵する古典的畳み込みニューラルネットワークによる解の精度が示された。
論文 参考訳(メタデータ) (2022-03-29T09:07:18Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Quantum Annealing Formulation for Binary Neural Networks [40.99969857118534]
本研究では、リソース制約のあるデバイスを意図した軽量で強力なモデルであるバイナリニューラルネットワークについて検討する。
トレーニング問題に対する2次非制約バイナリ最適化の定式化を考案する。
問題は難解であり、すなわち、二分重みを推定するコストはネットワークサイズと指数関数的にスケールするが、どのようにして問題を量子アニール器に直接最適化できるかを示す。
論文 参考訳(メタデータ) (2021-07-05T03:20:54Z) - Variational Quantum Optimization with Multi-Basis Encodings [62.72309460291971]
マルチバスグラフ複雑性と非線形活性化関数の2つの革新の恩恵を受ける新しい変分量子アルゴリズムを導入する。
その結果,最適化性能が向上し,有効景観が2つ向上し,測定の進歩が減少した。
論文 参考訳(メタデータ) (2021-06-24T20:16:02Z) - Entanglement Rate Optimization in Heterogeneous Quantum Communication
Networks [79.8886946157912]
量子通信ネットワークは、将来6G以降の通信ネットワークにおいて重要な構成要素となる可能性のある、有望な技術として登場しつつある。
近年の進歩は、実際の量子ハードウェアによる小規模および大規模量子通信ネットワークの展開に繋がった。
量子ネットワークにおいて、絡み合いは異なるノード間でのデータ転送を可能にする鍵となるリソースである。
論文 参考訳(メタデータ) (2021-05-30T11:34:23Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。