論文の概要: Quantum computing model of an artificial neuron with continuously valued
input data
- arxiv url: http://arxiv.org/abs/2007.14288v1
- Date: Tue, 28 Jul 2020 14:56:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-07 23:07:17.363582
- Title: Quantum computing model of an artificial neuron with continuously valued
input data
- Title(参考訳): 連続的な入力データを持つ人工ニューロンの量子計算モデル
- Authors: Stefano Mangini, Francesco Tacchino, Dario Gerace, Chiara
Macchiavello, Daniele Bajoni
- Abstract要約: 人工ニューロン(英: Artificial Neuron)は、入力ベクトルの形で一連のデータに対して単純な数学的操作を行う計算ユニットである。
従来導入されていた量子人工ニューロンの実装は、離散値の入力ベクトルではなく、連続的に受け入れるように一般化できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial neural networks have been proposed as potential algorithms that
could benefit from being implemented and run on quantum computers. In
particular, they hold promise to greatly enhance Artificial Intelligence tasks,
such as image elaboration or pattern recognition. The elementary building block
of a neural network is an artificial neuron, i.e. a computational unit
performing simple mathematical operations on a set of data in the form of an
input vector. Here we show how the design for the implementation of a
previously introduced quantum artificial neuron [npj Quant. Inf. $\textbf{5}$,
26], which fully exploits the use of superposition states to encode binary
valued input data, can be further generalized to accept continuous -- instead
of discrete-valued input vectors, without increasing the number of qubits. This
further step is crucial to allow for a direct application of an automatic
differentiation learning procedure, which would not be compatible with
binary-valued data encoding.
- Abstract(参考訳): 量子コンピュータ上での実装と実行の恩恵を受ける可能性のあるアルゴリズムとして、人工ニューラルネットワークが提案されている。
特に、画像の精巧化やパターン認識など、人工知能のタスクを大幅に強化すると約束している。
ニューラルネットワークの基本構築ブロックは、入力ベクトルの形でデータの集合に対して単純な数学的操作を行う計算単位である人工ニューロンである。
本稿では,以前に導入した量子人工ニューロン(npj quant)の実装設計について述べる。
インフ。
バイナリ値の入力データをエンコードするために重ね合わせ状態を使用する$\textbf{5}$, 26]は、キュービット数を増加せずに、離散値の入力ベクトルではなく、連続的な入力を受け入れるようにさらに一般化することができる。
このさらなるステップは、バイナリ値のデータエンコーディングと互換性のない自動微分学習手順の直接的な適用を可能にするために重要である。
関連論文リスト
- Non-binary artificial neuron with phase variation implemented on a quantum computer [0.0]
複素数の位相を操作するバイナリモデルを一般化するアルゴリズムを導入する。
量子コンピュータにおける連続的な値を扱うニューロンモデルを提案し,検証し,実装する。
論文 参考訳(メタデータ) (2024-10-30T18:18:53Z) - Incrementally-Computable Neural Networks: Efficient Inference for
Dynamic Inputs [75.40636935415601]
ディープラーニングは、センサーデータやユーザ入力などの動的入力を効率的に処理するという課題に直面していることが多い。
インクリメンタルな計算アプローチを採用し、入力の変化に応じて計算を再利用する。
本稿では,この手法をトランスフォーマーアーキテクチャに適用し,修正入力の分数に比例した複雑性を持つ効率的なインクリメンタル推論アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-27T16:30:27Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Quantum neural networks [0.0]
この論文は、過去数十年で最もエキサイティングな研究分野である量子コンピューティングと機械学習を組み合わせたものだ。
本稿では、汎用量子計算が可能で、トレーニング中にメモリ要求の少ない散逸型量子ニューラルネットワーク(DQNN)を紹介する。
論文 参考訳(メタデータ) (2022-05-17T07:47:00Z) - A Spiking Neural Network based on Neural Manifold for Augmenting
Intracortical Brain-Computer Interface Data [5.039813366558306]
脳-コンピュータインターフェース(BCI)は、脳内の神経信号をインストラクションに変換して外部デバイスを制御する。
高度な機械学習手法の出現により、脳-コンピュータインタフェースの能力はかつてないほど強化された。
ここでは、データジェネレータとしてスパイキングニューラルネットワーク(SNN)を用いる。
論文 参考訳(メタデータ) (2022-03-26T15:32:31Z) - Quantum activation functions for quantum neural networks [0.0]
情報を符号化する状態を測定することなく、必要な精度で解析関数を近似する方法を示す。
この結果は,ゲートモデル量子コンピュータのアーキテクチャにおける人工ニューラルネットワークの科学を再放送するものである。
論文 参考訳(メタデータ) (2022-01-10T23:55:49Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - Quantum implementation of an artificial feed-forward neural network [0.0]
本研究では,最先端の超伝導量子プロセッサ上に実装された人工フィードフォワードニューラルネットワークを実験的に実現した。
このネットワークは量子人工ニューロンで構成されており、記憶容量の潜在的な利点を個別に示す。
このネットワークは、古典的な制御か、完全に一貫性のある方法で等価に動作可能であることを実証する。
論文 参考訳(メタデータ) (2019-12-28T16:49:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。