論文の概要: Deep Neural Networks as the Semi-classical Limit of Topological Quantum
Neural Networks: The problem of generalisation
- arxiv url: http://arxiv.org/abs/2210.13741v1
- Date: Tue, 25 Oct 2022 03:14:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 16:24:25.527090
- Title: Deep Neural Networks as the Semi-classical Limit of Topological Quantum
Neural Networks: The problem of generalisation
- Title(参考訳): トポロジカル量子ニューラルネットワークの半古典的限界としてのディープニューラルネットワーク:一般化の問題
- Authors: Antonino Marciano, Deen Chen, Filippo Fabrocini, Chris Fields, Matteo
Lulli and Emanuele Zappala
- Abstract要約: 本稿では,ディープニューラルネットワークにおける一般化問題を理解するための枠組みを提案する。
ディープニューラルネットワークは、トポロジカル量子ニューラルネットワークの半古典的限界と見なされている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks miss a principled model of their operation. A novel
framework for supervised learning based on Topological Quantum Field Theory
that looks particularly well suited for implementation on quantum processors
has been recently explored. We propose the use of this framework for
understanding the problem of generalization in Deep Neural Networks. More
specifically, in this approach Deep Neural Networks are viewed as the
semi-classical limit of Topological Quantum Neural Networks. A framework of
this kind explains easily the overfitting behavior of Deep Neural Networks
during the training step and the corresponding generalization capabilities.
- Abstract(参考訳): ディープニューラルネットワークは、その動作の原則モデルを見落としている。
量子プロセッサの実装に特に適しているように見えるトポロジカル量子場理論に基づく教師あり学習のための新しいフレームワークが最近研究されている。
本稿では,Deep Neural Networksにおける一般化問題を理解するためのフレームワークを提案する。
より具体的には、このアプローチではディープニューラルネットワークはトポロジカル量子ニューラルネットワークの半古典的限界と見なされる。
このようなフレームワークは、トレーニングステップ中のディープニューラルネットワークのオーバーフィット動作と、対応する一般化機能を簡単に説明します。
関連論文リスト
- A General Approach to Dropout in Quantum Neural Networks [1.5771347525430772]
オーバーフィッティング(Overfitting)とは、与えられたモデルがトレーニングデータを過度に学習した場合に発生する現象である。
量子ニューラルネットワークが学習モデルとして登場したことで、オーバーフィッティングが問題になるかもしれない。
論文 参考訳(メタデータ) (2023-10-06T09:39:30Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Lecture Notes: Neural Network Architectures [0.0]
これらの講義ノートは、数学的観点からニューラルネットワークアーキテクチャの概要を提供する。
以下は、Feedforward Neural Network、Convolutional Neural Network、ResNet、Recurrent Neural Networkである。
論文 参考訳(メタデータ) (2023-04-11T10:54:36Z) - Theory for Equivariant Quantum Neural Networks [0.0]
我々は、同変量子ニューラルネットワークを理解し、分類し、設計し、実装するための一般的な理論的枠組みを提案する。
我々のフレームワークは量子機械学習のほぼすべての領域に容易に適用でき、不毛の台地、ローカルのミニマ不足、サンプルの複雑さといった中心的な課題を緩和することを期待しています。
論文 参考訳(メタデータ) (2022-10-16T15:42:21Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - Mathematical Models of Overparameterized Neural Networks [25.329225766892126]
我々は,2層ニューラルネットワークの解析に焦点をあて,重要な数学的モデルを説明する。
次に、ディープニューラルネットワークと現在の研究方向を理解するための課題について論じる。
論文 参考訳(メタデータ) (2020-12-27T17:48:31Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - Deep Neural Networks as the Semi-classical Limit of Quantum Neural
Networks [0.0]
量子ニューラルネットワーク(QNN)は、スピンネットにマッピングできる。
Deep Neural Networks (DNN)はQNNのサブケースである。
トポロジカル量子場理論(TQFT)の用語を用いて機械学習(ML)キー概念を記述できる
論文 参考訳(メタデータ) (2020-06-30T22:47:26Z) - Entanglement Classification via Neural Network Quantum States [58.720142291102135]
本稿では、学習ツールと量子絡み合いの理論を組み合わせて、純状態における多部量子ビット系の絡み合い分類を行う。
我々は、ニューラルネットワーク量子状態(NNS)として知られる制限されたボルツマンマシン(RBM)アーキテクチャにおいて、人工ニューラルネットワークを用いた量子システムのパラメータ化を用いる。
論文 参考訳(メタデータ) (2019-12-31T07:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。