論文の概要: Continuous-Variable Deep Quantum Neural Networks for Flexible Learning
of Structured Classical Information
- arxiv url: http://arxiv.org/abs/2006.10927v2
- Date: Thu, 3 Sep 2020 03:33:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-13 11:31:36.549237
- Title: Continuous-Variable Deep Quantum Neural Networks for Flexible Learning
of Structured Classical Information
- Title(参考訳): 構造化古典情報の柔軟学習のための連続変数深層量子ニューラルネットワーク
- Authors: Jasvith Raj Basani and Aranya B Bhattacherjee
- Abstract要約: 我々は,連続可変(CV)モデルの特性を利用して,スタック化された単一モードネットワークを構築する。
99.98%以上の忠実度に古典的な情報を学習するためのネットワークの適応性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum computation using optical modes has been well-established in its
ability to construct deep neural networks. These networks have been shown to be
flexible both architecturally as well as in terms of the type of data being
processed. We leverage this property of the Continuous-Variable (CV) model to
construct stacked single mode networks that are shown to learn structured
classical information, while placing no restrictions on the size of the
network, and at the same time maintaining it's complexity. The hallmark of the
CV model is its ability to forge non-linear functions using a set of gates that
allows it to remain completely unitary. The proposed model exemplifies that the
appropriate photonic hardware can be integrated with present day optical
communication systems to meet our information processing requirements. In this
paper, using the Strawberry Fields software library on the MNIST dataset of
hand-written digits, we demonstrate the adaptability of the network to learn
classical information to fidelities of greater than 99.98%
- Abstract(参考訳): 光モードを用いた量子計算は、ディープニューラルネットワークを構築する能力で確立されている。
これらのネットワークは、処理されるデータのタイプの観点からも、アーキテクチャ的にも柔軟であることが示されている。
連続変数(CV)モデルのこの特性を利用して、構造化された古典的情報を学習するために示されるスタック化された単一モードネットワークを構築すると同時に、ネットワークのサイズに制限を課さず、その複雑さを維持する。
cvモデルの特徴は、完全ユニタリを保つことができるゲートの集合を用いて非線形関数をフォージする能力である。
提案モデルは,現在の光通信システムと適切なフォトニックハードウェアを統合して,情報処理の要件を満たすことを実証する。
本稿では,手書き数字のMNISTデータセット上のStrawberry Fieldsソフトウェアライブラリを用いて,99.98%以上の忠実度に古典情報を学習するネットワークの適応性を実証する。
関連論文リスト
- Hybrid Quantum Neural Network in High-dimensional Data Classification [1.4801853435122907]
本稿では,古典的畳み込み層と量子ニューラルネットワークを組み合わせた新しいモデルアーキテクチャを提案する。
この実験は、Bird-CLEF 2021データセットから高次元オーディオデータを分類することを目的としている。
論文 参考訳(メタデータ) (2023-12-02T04:19:23Z) - Homological Convolutional Neural Networks [4.615338063719135]
本稿では,トポロジ的に制約されたネットワーク表現を通じて,データ構造構造を利用した新しいディープラーニングアーキテクチャを提案する。
5つの古典的な機械学習モデルと3つのディープラーニングモデルに対して、18のベンチマークデータセットでモデルをテストします。
論文 参考訳(メタデータ) (2023-08-26T08:48:51Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - CondenseNeXt: An Ultra-Efficient Deep Neural Network for Embedded
Systems [0.0]
畳み込みニューラルネットワーク(英: Convolutional Neural Network, CNN)は、画像センサが捉えた視覚画像の分析に広く用いられているディープニューラルネットワーク(DNN)のクラスである。
本稿では,組込みシステム上でのリアルタイム推論のために,既存のCNNアーキテクチャの性能を改善するために,深層畳み込みニューラルネットワークアーキテクチャの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-12-01T18:20:52Z) - Quantum Self-Supervised Learning [22.953284192004034]
対照的自己監督学習のためのハイブリッド量子古典ニューラルネットワークアーキテクチャを提案する。
ibmq_paris量子コンピュータ上の見えない画像を分類するために、最良の量子モデルを適用します。
論文 参考訳(メタデータ) (2021-03-26T18:00:00Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Entangled q-Convolutional Neural Nets [0.0]
機械学習モデル、q-CNNモデルを導入し、畳み込みニューラルネットワークと主要な機能を共有し、テンソルネットワーク記述を認めます。
例として、MNISTおよびFashion MNIST分類タスクにq-CNNを適用する。
ネットワークが各分類ラベルに量子状態をどのように関連付けるかを説明し、これらのネットワーク状態の絡み合い構造を研究する。
論文 参考訳(メタデータ) (2021-03-06T02:35:52Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Neural networks adapting to datasets: learning network size and topology [77.34726150561087]
ニューラルネットワークは、勾配に基づくトレーニングの過程で、そのサイズとトポロジの両方を学習できるフレキシブルなセットアップを導入します。
結果として得られるネットワークは、特定の学習タスクとデータセットに合わせたグラフの構造を持つ。
論文 参考訳(メタデータ) (2020-06-22T12:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。