論文の概要: On the capacity of neural networks
- arxiv url: http://arxiv.org/abs/2211.07531v1
- Date: Wed, 2 Nov 2022 10:19:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 16:18:21.369384
- Title: On the capacity of neural networks
- Title(参考訳): ニューラルネットワークの能力について
- Authors: Leonardo Cruciani
- Abstract要約: この論文の目的は、ニューラルネットワークの異なるモデルの容量を比較することである。
まず、単純な引数を用いて、単一パーセプトロンの問題解決能力の分析から始める。
基本ネットワークの記憶容量に関するいくつかの観測の後、我々はその容量を計算するための強力な統計力学的アプローチを導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The aim of this thesis is to compare the capacity of different models of
neural networks. We start by analysing the problem solving capacity of a single
perceptron using a simple combinatorial argument. After some observations on
the storage capacity of a basic network, known as an associative memory, we
introduce a powerful statistical mechanical approach to calculate its capacity
in the training rule-dependent Hopfield model. With the aim of finding a more
general definition that can be applied even to quantum neural nets, we then
follow Gardner's work, which let us get rid of the dependency on the training
rule, and comment the results obtained by Lewenstein et al. by applying
Gardner's methods on a recently proposed quantum perceptron model.
- Abstract(参考訳): この論文の目的は、ニューラルネットワークの異なるモデルの能力を比較することである。
まず,単一パーセプトロンの問題解決能力について,単純な組合せ引数を用いて解析する。
連想記憶と呼ばれる基本ネットワークの記憶容量に関するいくつかの観察を行った後、訓練規則依存ホップフィールドモデルにおいて、その容量を計算するための強力な統計力学的手法を導入する。
量子ニューラルネットにも適用可能なより一般的な定義を見つけるために、我々はガードナーの仕事に従い、トレーニングルールへの依存を取り除き、最近提案された量子パーセプトロンモデルにガードナーの方法を適用することで、lewensteinらによって得られた結果をコメントする。
関連論文リスト
- Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Information-driven Nonlinear Quantum Neuron [0.0]
本研究では,オープン量子システムとして動作するハードウェア効率の高い量子ニューラルネットワークを提案する。
入力量子情報のパラメトリゼーションが容易な繰り返し相互作用に基づくこの散逸モデルが、微分可能非線形活性化関数を示すことを示す。
論文 参考訳(メタデータ) (2023-07-18T07:12:08Z) - Problem-Dependent Power of Quantum Neural Networks on Multi-Class
Classification [83.20479832949069]
量子ニューラルネットワーク(QNN)は物理世界を理解する上で重要なツールとなっているが、その利点と限界は完全には理解されていない。
本稿では,多クラス分類タスクにおけるQCの問題依存力について検討する。
我々の研究はQNNの課題依存力に光を当て、その潜在的なメリットを評価するための実践的なツールを提供する。
論文 参考訳(メタデータ) (2022-12-29T10:46:40Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Optimal storage capacity of quantum Hopfield neural networks [0.0]
多数のパターンで量子連想記憶を解析することは、難しいオープンな問題である。
本稿では,量子ニューラルネットワークモデルにおける最大記憶容量の評価方法を提案する。
論文 参考訳(メタデータ) (2022-10-14T15:21:21Z) - Quantum Self-Supervised Learning [22.953284192004034]
対照的自己監督学習のためのハイブリッド量子古典ニューラルネットワークアーキテクチャを提案する。
ibmq_paris量子コンピュータ上の見えない画像を分類するために、最良の量子モデルを適用します。
論文 参考訳(メタデータ) (2021-03-26T18:00:00Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Entanglement-based quantum deep learning [1.1608078259903485]
我々は,マルチキュービットの絡み合い状態に基づく量子深層学習方式を提案している。
トレーニングの過程では,未知単位ベクトルと未知単位ベクトルとの距離の効率的な計算が実現されている。
古典的アルゴリズムに対する指数的な高速化が実証されている。
論文 参考訳(メタデータ) (2020-02-27T09:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。