論文の概要: A General Approach to Dropout in Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2310.04120v1
- Date: Fri, 6 Oct 2023 09:39:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-09 20:58:59.646528
- Title: A General Approach to Dropout in Quantum Neural Networks
- Title(参考訳): 量子ニューラルネットワークにおけるドロップアウトの一般解法
- Authors: Francesco Scala, Andrea Ceschini, Massimo Panella, Dario Gerace
- Abstract要約: オーバーフィッティング(Overfitting)とは、与えられたモデルがトレーニングデータを過度に学習した場合に発生する現象である。
量子ニューラルネットワークが学習モデルとして登場したことで、オーバーフィッティングが問題になるかもしれない。
- 参考スコア(独自算出の注目度): 1.5771347525430772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In classical Machine Learning, "overfitting" is the phenomenon occurring when
a given model learns the training data excessively well, and it thus performs
poorly on unseen data. A commonly employed technique in Machine Learning is the
so called "dropout", which prevents computational units from becoming too
specialized, hence reducing the risk of overfitting. With the advent of Quantum
Neural Networks as learning models, overfitting might soon become an issue,
owing to the increasing depth of quantum circuits as well as multiple embedding
of classical features, which are employed to give the computational
nonlinearity. Here we present a generalized approach to apply the dropout
technique in Quantum Neural Network models, defining and analysing different
quantum dropout strategies to avoid overfitting and achieve a high level of
generalization. Our study allows to envision the power of quantum dropout in
enabling generalization, providing useful guidelines on determining the maximal
dropout probability for a given model, based on overparametrization theory. It
also highlights how quantum dropout does not impact the features of the Quantum
Neural Networks model, such as expressibility and entanglement. All these
conclusions are supported by extensive numerical simulations, and may pave the
way to efficiently employing deep Quantum Machine Learning models based on
state-of-the-art Quantum Neural Networks.
- Abstract(参考訳): 古典的機械学習において、"オーバーフィッティング"とは、与えられたモデルがトレーニングデータを過度に学習するときに発生する現象であり、その結果、見当たらないデータでは性能が低下する。
機械学習における一般的なテクニックは、いわゆる「ドロップアウト」であり、計算ユニットが過度に専門化されるのを防ぎ、過度に適合するリスクを減らす。
学習モデルとしての量子ニューラルネットワークの出現により、量子回路の深さの増加と、計算非線形性を与えるために使われる古典的特徴の複数の埋め込みにより、オーバーフィッティングがすぐに問題となる可能性がある。
本稿では,量子ニューラルネットワークモデルにおけるドロップアウト手法を適用し,オーバーフィッティングを避けるために異なる量子ドロップアウト戦略を定義し解析し,高レベルな一般化を実現するための一般化手法を提案する。
本研究は, 過パラメトリゼーション理論に基づいて, 与えられたモデルに対する最大ドロップアウト確率を決定するための有用なガイドラインを提供することにより, 一般化を可能にする量子ドロップアウトのパワーを想像することができる。
また、量子ドロップアウトが、表現性や絡み合いなど、量子ニューラルネットワークモデルの特徴にどのように影響しないかを強調している。
これらすべての結論は広範な数値シミュレーションによって支持されており、最先端の量子ニューラルネットワークに基づく深層量子機械学習モデルを効率的に活用する方法を開拓する可能性がある。
関連論文リスト
- Quantum-Train: Rethinking Hybrid Quantum-Classical Machine Learning in the Model Compression Perspective [7.7063925534143705]
本稿では,量子コンピューティングと機械学習アルゴリズムを統合する新しいアプローチであるQuantum-Train(QT)フレームワークを紹介する。
QTは、古典的なマッピングモデルと並んで量子ニューラルネットワークを利用することで、顕著な結果を得る。
論文 参考訳(メタデータ) (2024-05-18T14:35:57Z) - Bridging Classical and Quantum Machine Learning: Knowledge Transfer From
Classical to Quantum Neural Networks Using Knowledge Distillation [0.0]
本稿では,知識蒸留を用いた古典的ニューラルネットワークから量子ニューラルネットワークへ知識を伝達する新しい手法を提案する。
我々は、LeNetやAlexNetのような古典的畳み込みニューラルネットワーク(CNN)アーキテクチャを教師ネットワークとして活用する。
量子モデルは、MNISTデータセットで0.80%、より複雑なFashion MNISTデータセットで5.40%の平均精度改善を達成する。
論文 参考訳(メタデータ) (2023-11-23T05:06:43Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Quantum Neural Network for Quantum Neural Computing [0.0]
本稿では,量子ニューラルネットワークのための新しい量子ニューラルネットワークモデルを提案する。
我々のモデルは、状態空間のサイズがニューロンの数とともに指数関数的に大きくなるという問題を回避している。
我々は手書き文字認識や他の非線形分類タスクのモデルをベンチマークする。
論文 参考訳(メタデータ) (2023-05-15T11:16:47Z) - The Quantum Path Kernel: a Generalized Quantum Neural Tangent Kernel for
Deep Quantum Machine Learning [52.77024349608834]
古典的なディープニューラルネットワークの量子アナログを構築することは、量子コンピューティングにおける根本的な課題である。
鍵となる問題は、古典的なディープラーニングの本質的な非線形性にどのように対処するかである。
我々は、深層機械学習のこれらの側面を複製できる量子機械学習の定式化であるQuantum Path Kernelを紹介する。
論文 参考訳(メタデータ) (2022-12-22T16:06:24Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - The power of quantum neural networks [3.327474729829121]
しかし、短期的には、量子機械学習の利点はあまり明確ではない。
我々は、情報幾何学のツールを使用して、量子モデルと古典モデルの表現可能性の概念を定義します。
量子ニューラルネットワークは、同等の古典的ニューラルネットワークよりもはるかに優れた次元を達成可能であることを示す。
論文 参考訳(メタデータ) (2020-10-30T18:13:32Z) - Quantum Deformed Neural Networks [83.71196337378022]
我々は,量子コンピュータ上で効率的に動作するように設計された新しい量子ニューラルネットワーク層を開発した。
入力状態の絡み合いに制限された場合、古典的なコンピュータでシミュレートすることができる。
論文 参考訳(メタデータ) (2020-10-21T09:46:12Z) - Entanglement Classification via Neural Network Quantum States [58.720142291102135]
本稿では、学習ツールと量子絡み合いの理論を組み合わせて、純状態における多部量子ビット系の絡み合い分類を行う。
我々は、ニューラルネットワーク量子状態(NNS)として知られる制限されたボルツマンマシン(RBM)アーキテクチャにおいて、人工ニューラルネットワークを用いた量子システムのパラメータ化を用いる。
論文 参考訳(メタデータ) (2019-12-31T07:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。