論文の概要: Quantum-Inspired Weight-Constrained Neural Network: Reducing Variable Numbers by 100x Compared to Standard Neural Networks
- arxiv url: http://arxiv.org/abs/2412.19355v1
- Date: Thu, 26 Dec 2024 21:35:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:25:49.618501
- Title: Quantum-Inspired Weight-Constrained Neural Network: Reducing Variable Numbers by 100x Compared to Standard Neural Networks
- Title(参考訳): 量子インスパイアされた重み制約ニューラルネットワーク:標準ニューラルネットワークと比較して可変数を100倍減らす
- Authors: Shaozhi Li, M Sabbir Salek, Binayyak Roy, Yao Wang, Mashrur Chowdhury,
- Abstract要約: 我々は、量子に着想を得た洞察に基づいて重みを生成する古典的な重み制約ニューラルネットワークを開発した。
このアプローチは、学習可能性を維持しながら、古典的ニューラルネットワークの変数数を135倍に減らすことができる。
さらに,敵攻撃の影響を受けやすい量子機械学習モデルのロバスト性を高めるためのドロップアウト手法を開発した。
- 参考スコア(独自算出の注目度): 5.6805708828651
- License:
- Abstract: Although quantum machine learning has shown great promise, the practical application of quantum computers remains constrained in the noisy intermediate-scale quantum era. To take advantage of quantum machine learning, we investigate the underlying mathematical principles of these quantum models and adapt them to classical machine learning frameworks. Specifically, we develop a classical weight-constrained neural network that generates weights based on quantum-inspired insights. We find that this approach can reduce the number of variables in a classical neural network by a factor of 135 while preserving its learnability. In addition, we develop a dropout method to enhance the robustness of quantum machine learning models, which are highly susceptible to adversarial attacks. This technique can also be applied to improve the adversarial resilience of the classical weight-constrained neural network, which is essential for industry applications, such as self-driving vehicles. Our work offers a novel approach to reduce the complexity of large classical neural networks, addressing a critical challenge in machine learning.
- Abstract(参考訳): 量子機械学習は大きな可能性を示してきたが、量子コンピュータの実践的応用は、ノイズの多い中間スケールの量子時代において制約を受け続けている。
量子機械学習を活用するために、これらの量子モデルの基礎となる数学的原理を調査し、それらを古典的な機械学習フレームワークに適用する。
具体的には、量子に着想を得た洞察に基づいて重みを生成する古典的な重み制約ニューラルネットワークを開発する。
この手法により,学習性を維持しつつ,古典的ニューラルネットワークの変数数を135倍に削減できることがわかった。
さらに,敵攻撃の影響を受けやすい量子機械学習モデルのロバスト性を高めるためのドロップアウト手法を開発した。
この手法は、自動車などの産業応用に不可欠な古典的重み制約ニューラルネットワークの対向レジリエンスを改善するためにも適用できる。
私たちの研究は、大規模な古典的ニューラルネットワークの複雑さを減らすための新しいアプローチを提供し、機械学習における重要な課題に対処します。
関連論文リスト
- Let the Quantum Creep In: Designing Quantum Neural Network Models by
Gradually Swapping Out Classical Components [1.024113475677323]
現代のAIシステムはニューラルネットワーク上に構築されることが多い。
古典的ニューラルネットワーク層を量子層に置き換える枠組みを提案する。
画像分類データセットの数値実験を行い、量子部品の体系的導入による性能変化を実証する。
論文 参考訳(メタデータ) (2024-09-26T07:01:29Z) - CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - A General Approach to Dropout in Quantum Neural Networks [1.5771347525430772]
オーバーフィッティング(Overfitting)とは、与えられたモデルがトレーニングデータを過度に学習した場合に発生する現象である。
量子ニューラルネットワークが学習モデルとして登場したことで、オーバーフィッティングが問題になるかもしれない。
論文 参考訳(メタデータ) (2023-10-06T09:39:30Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Quantum Neural Network for Quantum Neural Computing [0.0]
本稿では,量子ニューラルネットワークのための新しい量子ニューラルネットワークモデルを提案する。
我々のモデルは、状態空間のサイズがニューロンの数とともに指数関数的に大きくなるという問題を回避している。
我々は手書き文字認識や他の非線形分類タスクのモデルをベンチマークする。
論文 参考訳(メタデータ) (2023-05-15T11:16:47Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - Quantum neural networks with deep residual learning [29.929891641757273]
本稿では,深層残留学習(resqnn)を用いた新しい量子ニューラルネットワークを提案する。
ResQNNは未知のユニタリを学び、驚くべきパフォーマンスを得ることができます。
論文 参考訳(メタデータ) (2020-12-14T18:11:07Z) - The power of quantum neural networks [3.327474729829121]
しかし、短期的には、量子機械学習の利点はあまり明確ではない。
我々は、情報幾何学のツールを使用して、量子モデルと古典モデルの表現可能性の概念を定義します。
量子ニューラルネットワークは、同等の古典的ニューラルネットワークよりもはるかに優れた次元を達成可能であることを示す。
論文 参考訳(メタデータ) (2020-10-30T18:13:32Z) - Quantum Deformed Neural Networks [83.71196337378022]
我々は,量子コンピュータ上で効率的に動作するように設計された新しい量子ニューラルネットワーク層を開発した。
入力状態の絡み合いに制限された場合、古典的なコンピュータでシミュレートすることができる。
論文 参考訳(メタデータ) (2020-10-21T09:46:12Z) - Entanglement Classification via Neural Network Quantum States [58.720142291102135]
本稿では、学習ツールと量子絡み合いの理論を組み合わせて、純状態における多部量子ビット系の絡み合い分類を行う。
我々は、ニューラルネットワーク量子状態(NNS)として知られる制限されたボルツマンマシン(RBM)アーキテクチャにおいて、人工ニューラルネットワークを用いた量子システムのパラメータ化を用いる。
論文 参考訳(メタデータ) (2019-12-31T07:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。