論文の概要: Development and Training of Quantum Neural Networks, Based on the
Principles of Grover's Algorithm
- arxiv url: http://arxiv.org/abs/2110.01443v1
- Date: Fri, 1 Oct 2021 14:08:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-12 19:46:57.514991
- Title: Development and Training of Quantum Neural Networks, Based on the
Principles of Grover's Algorithm
- Title(参考訳): グローバーアルゴリズムの原理に基づく量子ニューラルネットワークの開発と学習
- Authors: Cesar Borisovich Pronin, Andrey Vladimirovich Ostroukh
- Abstract要約: 本稿では,ニューラルネットワークのトレーニングプロセスと,量子回路として解釈されたニューラルネットワークの機能構造を組み合わせることを提案する。
ニューラルネットワークの単純な例として、この概念を示すために、トレーニング可能なパラメータが1つあるパーセプトロン(隠されたニューロンに接続されたシナプスの重さ)がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper highlights the possibility of creating quantum neural networks
that are trained by Grover's Search Algorithm. The purpose of this work is to
propose the concept of combining the training process of a neural network,
which is performed on the principles of Grover's algorithm, with the functional
structure of that neural network, interpreted as a quantum circuit. As a simple
example of a neural network, to showcase the concept, a perceptron with one
trainable parameter - the weight of a synapse connected to a hidden neuron.
- Abstract(参考訳): 本稿では、Groverの検索アルゴリズムによってトレーニングされた量子ニューラルネットワークを作成する可能性を強調する。
本研究の目的は、グローバーのアルゴリズムの原理に基づいて行われるニューラルネットワークの訓練過程と、そのニューラルネットワークの機能構造を量子回路として解釈する概念を提案することである。
ニューラルネットワークの単純な例として、概念を示すために、1つの訓練可能なパラメータを持つパーセプトロン(隠されたニューロンに接続されたシナプスの重さ)がある。
関連論文リスト
- Novel Kernel Models and Exact Representor Theory for Neural Networks Beyond the Over-Parameterized Regime [52.00917519626559]
本稿では、ニューラルネットワークの2つのモデルと、任意の幅、深さ、トポロジーのニューラルネットワークに適用可能なトレーニングについて述べる。
また、局所外在性神経核(LeNK)の観点から、非正規化勾配降下を伴う階層型ニューラルネットワークトレーニングのための正確な表現子理論を提示する。
この表現論は、ニューラルネットワークトレーニングにおける高次統計学の役割と、ニューラルネットワークのカーネルモデルにおけるカーネル進化の影響について洞察を与える。
論文 参考訳(メタデータ) (2024-05-24T06:30:36Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - NeuralFastLAS: Fast Logic-Based Learning from Raw Data [54.938128496934695]
シンボリック・ルール学習者は解釈可能な解を生成するが、入力を記号的に符号化する必要がある。
ニューロシンボリックアプローチは、ニューラルネットワークを使用して生データを潜在シンボリック概念にマッピングすることで、この問題を克服する。
我々は,ニューラルネットワークを記号学習者と共同でトレーニングする,スケーラブルで高速なエンドツーエンドアプローチであるNeuralFastLASを紹介する。
論文 参考訳(メタデータ) (2023-10-08T12:33:42Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - On the explainability of quantum neural networks based on variational quantum circuits [0.0]
リッジ関数は、ニューラルネットワークによって行われる近似の下限を記述し、研究するために用いられる。
変動量子回路に基づく量子ニューラルネットワークは、リッジ関数の線形結合として記述できることを示す。
論文 参考訳(メタデータ) (2023-01-12T18:46:28Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - A note on the complex and bicomplex valued neural networks [0.0]
まず、複素多値ニューラルネットワーク(CMVNN)のパーセプトロン収束アルゴリズムの証明を記述する。
我々の第一の目的は、両複素多値ニューラルネットワーク(BMVNN)のパーセプトロン収束アルゴリズムを定式化し、証明することである。
論文 参考訳(メタデータ) (2022-02-04T19:25:01Z) - Quantum activation functions for quantum neural networks [0.0]
情報を符号化する状態を測定することなく、必要な精度で解析関数を近似する方法を示す。
この結果は,ゲートモデル量子コンピュータのアーキテクチャにおける人工ニューラルネットワークの科学を再放送するものである。
論文 参考訳(メタデータ) (2022-01-10T23:55:49Z) - Development of Quantum Circuits for Perceptron Neural Network Training,
Based on the Principles of Grover's Algorithm [0.0]
本稿では,ニューラルネットワークのトレーニングのための量子回路の形成の可能性を明らかにする。
パーセプトロンは、ニューラルネットワークの例のアーキテクチャとして選ばれた。
論文 参考訳(メタデータ) (2021-10-15T13:07:18Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - A neural network model of perception and reasoning [0.0]
生物学的に一貫した構成原理の単純なセットが神経ネットワークにこれらの能力を与えることを示す。
我々はこれらの原理を、最適化の代わりに概念構築に基づく新しい機械学習アルゴリズムで実装し、説明可能なニューロン活動で推論されるディープニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-02-26T06:26:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。