論文の概要: Deep Neural Networks as the Semi-classical Limit of Topological Quantum Neural Networks: The problem of generalisation
- arxiv url: http://arxiv.org/abs/2210.13741v2
- Date: Fri, 11 Oct 2024 05:08:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-14 13:28:38.330281
- Title: Deep Neural Networks as the Semi-classical Limit of Topological Quantum Neural Networks: The problem of generalisation
- Title(参考訳): トポロジカル量子ニューラルネットワークの半古典的限界としてのディープニューラルネットワーク:一般化の問題
- Authors: Antonino Marciano, Emanuele Zappala, Tommaso Torda, Matteo Lulli, Stefano Giagu, Chris Fields, Deen Chen, Filippo Fabrocini,
- Abstract要約: 本稿では,Deep Neural Networksにおける一般化問題を理解するために,このフレームワークを提案する。
この種のフレームワークは、トレーニングステップ中のディープニューラルネットワークの過剰適合挙動と、それに対応する一般化能力を説明する。
開発した新しいアルゴリズムを適用し、標準的なニューラルネットワークと同様の結果を得るが、トレーニングは必要としないことを示す。
- 参考スコア(独自算出の注目度): 0.3871780652193725
- License:
- Abstract: Deep Neural Networks miss a principled model of their operation. A novel framework for supervised learning based on Topological Quantum Field Theory that looks particularly well suited for implementation on quantum processors has been recently explored. We propose using this framework to understand the problem of generalisation in Deep Neural Networks. More specifically, in this approach, Deep Neural Networks are viewed as the semi-classical limit of Topological Quantum Neural Networks. A framework of this kind explains the overfitting behavior of Deep Neural Networks during the training step and the corresponding generalisation capabilities. We explore the paradigmatic case of the perceptron, which we implement as the semiclassical limit of Topological Quantum Neural Networks. We apply a novel algorithm we developed, showing that it obtains similar results to standard neural networks, but without the need for training (optimisation).
- Abstract(参考訳): ディープニューラルネットワークは、その動作の原則モデルを見落としている。
近年,量子プロセッサの実装に特に適したトポロジカル量子場理論に基づく教師あり学習フレームワークが研究されている。
本稿では,Deep Neural Networksにおける一般化問題を理解するために,このフレームワークを提案する。
具体的には、ディープニューラルネットワークは、トポロジカル量子ニューラルネットワークの半古典的限界と見なされる。
この種のフレームワークは、トレーニングステップ中のディープニューラルネットワークの過剰適合挙動と、それに対応する一般化能力を説明する。
我々は、トポロジカル量子ニューラルネットの半古典的限界として実装されるパーセプトロンのパラダイム的ケースについて検討する。
開発した新しいアルゴリズムを適用し、標準ニューラルネットワークと同じような結果が得られるが、トレーニング(最適化)は不要であることを示す。
関連論文リスト
- A General Approach to Dropout in Quantum Neural Networks [1.5771347525430772]
オーバーフィッティング(Overfitting)とは、与えられたモデルがトレーニングデータを過度に学習した場合に発生する現象である。
量子ニューラルネットワークが学習モデルとして登場したことで、オーバーフィッティングが問題になるかもしれない。
論文 参考訳(メタデータ) (2023-10-06T09:39:30Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - QDCNN: Quantum Dilated Convolutional Neural Network [1.52292571922932]
量子拡張畳み込みニューラルネットワーク(QDCNN)と呼ばれる新しいハイブリッド量子古典型アルゴリズムを提案する。
提案手法は,現代のディープラーニングアルゴリズムに広く応用されている拡張畳み込みの概念を,ハイブリッドニューラルネットワークの文脈にまで拡張する。
提案したQDCNNは,量子畳み込み過程において,計算コストを低減しつつ,より大きなコンテキストを捉えることができる。
論文 参考訳(メタデータ) (2021-10-29T10:24:34Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - Mathematical Models of Overparameterized Neural Networks [25.329225766892126]
我々は,2層ニューラルネットワークの解析に焦点をあて,重要な数学的モデルを説明する。
次に、ディープニューラルネットワークと現在の研究方向を理解するための課題について論じる。
論文 参考訳(メタデータ) (2020-12-27T17:48:31Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - Deep Neural Networks as the Semi-classical Limit of Quantum Neural
Networks [0.0]
量子ニューラルネットワーク(QNN)は、スピンネットにマッピングできる。
Deep Neural Networks (DNN)はQNNのサブケースである。
トポロジカル量子場理論(TQFT)の用語を用いて機械学習(ML)キー概念を記述できる
論文 参考訳(メタデータ) (2020-06-30T22:47:26Z) - Entanglement Classification via Neural Network Quantum States [58.720142291102135]
本稿では、学習ツールと量子絡み合いの理論を組み合わせて、純状態における多部量子ビット系の絡み合い分類を行う。
我々は、ニューラルネットワーク量子状態(NNS)として知られる制限されたボルツマンマシン(RBM)アーキテクチャにおいて、人工ニューラルネットワークを用いた量子システムのパラメータ化を用いる。
論文 参考訳(メタデータ) (2019-12-31T07:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。