論文の概要: Quantum Self-Supervised Learning
- arxiv url: http://arxiv.org/abs/2103.14653v1
- Date: Fri, 26 Mar 2021 18:00:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 15:15:29.790545
- Title: Quantum Self-Supervised Learning
- Title(参考訳): 量子自己監督学習
- Authors: Ben Jaderberg, Lewis W. Anderson, Weidi Xie, Samuel Albanie, Martin
Kiffner, Dieter Jaksch
- Abstract要約: 対照的自己監督学習のためのハイブリッド量子古典ニューラルネットワークアーキテクチャを提案する。
ibmq_paris量子コンピュータ上の見えない画像を分類するために、最良の量子モデルを適用します。
- 参考スコア(独自算出の注目度): 22.953284192004034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The popularisation of neural networks has seen incredible advances in pattern
recognition, driven by the supervised learning of human annotations. However,
this approach is unsustainable in relation to the dramatically increasing size
of real-world datasets. This has led to a resurgence in self-supervised
learning, a paradigm whereby the model generates its own supervisory signal
from the data. Here we propose a hybrid quantum-classical neural network
architecture for contrastive self-supervised learning and test its
effectiveness in proof-of-principle experiments. Interestingly, we observe a
numerical advantage for the learning of visual representations using
small-scale quantum neural networks over equivalently structured classical
networks, even when the quantum circuits are sampled with only 100 shots.
Furthermore, we apply our best quantum model to classify unseen images on the
ibmq_paris quantum computer and find that current noisy devices can already
achieve equal accuracy to the equivalent classical model on downstream tasks.
- Abstract(参考訳): ニューラルネットワークの普及は、人間のアノテーションの教師付き学習によって、パターン認識が驚くほど進歩している。
しかし、実際のデータセットのサイズが劇的に大きくなることに関連して、このアプローチは持続不可能である。
これにより、モデルがデータから独自の監視信号を生成するパラダイムである自己教師付き学習が復活した。
本稿では,コントラスト型自己教師型学習のためのハイブリッド量子古典ニューラルネットワークアーキテクチャを提案する。
興味深いことに、100ショットで量子回路をサンプリングしても、等価に構造化された古典的ネットワーク上で小さな量子ニューラルネットワークを用いて視覚表現を学習する際の数値的な利点を観察する。
さらに,ibmq_paris量子コンピュータ上の未検出画像の分類に最善の量子モデルを適用し,現在のノイズの多いデバイスが下流タスクで同等の古典モデルと同等の精度をすでに達成できることを見出した。
関連論文リスト
- Bridging Classical and Quantum Machine Learning: Knowledge Transfer From
Classical to Quantum Neural Networks Using Knowledge Distillation [0.0]
本稿では,知識蒸留を用いた古典的ニューラルネットワークから量子ニューラルネットワークへ知識を伝達する新しい手法を提案する。
我々は、LeNetやAlexNetのような古典的畳み込みニューラルネットワーク(CNN)アーキテクチャを教師ネットワークとして活用する。
量子モデルは、MNISTデータセットで0.80%、より複雑なFashion MNISTデータセットで5.40%の平均精度改善を達成する。
論文 参考訳(メタデータ) (2023-11-23T05:06:43Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Deep learning of many-body observables and quantum information scrambling [0.0]
物理オブザーバブルの力学を学習する際のデータ駆動型ディープニューラルネットワークの能力が、量子情報のスクランブルとどのように相関するかを考察する。
ニューラルネットワークを用いて、モデルのパラメータからランダム量子回路における可観測物の進化へのマッピングを求める。
特定のタイプのリカレントニューラルネットワークは、局所的およびスクランブルされた状態の両方でトレーニングされたシステムサイズと時間ウィンドウ内での予測を一般化する上で非常に強力であることを示す。
論文 参考訳(メタデータ) (2023-02-09T13:14:10Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Analysis of Neural Network Predictions for Entanglement Self-Catalysis [0.0]
ニューラルネットワークの異なるモデルが絡み合いの検出と自己触媒の仕方を学ぶことができるかどうかを検討する。
また、学習機械が別の関連する現象を検知できるかどうかについても検討する。
論文 参考訳(メタデータ) (2021-12-29T14:18:45Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - Quantum neural networks with deep residual learning [29.929891641757273]
本稿では,深層残留学習(resqnn)を用いた新しい量子ニューラルネットワークを提案する。
ResQNNは未知のユニタリを学び、驚くべきパフォーマンスを得ることができます。
論文 参考訳(メタデータ) (2020-12-14T18:11:07Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。