論文の概要: Generative Adversarial Variational Quantum Kolmogorov-Arnold Network
- arxiv url: http://arxiv.org/abs/2512.11014v2
- Date: Thu, 18 Dec 2025 13:00:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 14:03:03.220035
- Title: Generative Adversarial Variational Quantum Kolmogorov-Arnold Network
- Title(参考訳): 逆数変分Kolmogorov-Arnoldネットワークの生成
- Authors: Hikaru Wakaura,
- Abstract要約: Kolmogorov Arnold Networksは、ニューラルネットワークよりも高い精度を示すことができる新しい多層ニューロモルフィックネットワークである。
本稿では,変分量子KAを生成元とする生成逆数量子KA(Generative Adversarial Variational Quantum Kan)という生成逆数ネットワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Kolmogorov Arnold Networks is a novel multilayer neuromorphic network that can exhibit higher accuracy than a neural network. It can learn and predict more accurately than neural networks with a smaller number of parameters, and many research groups worldwide have adopted it. As a result, many types of applications have been proposed. This network can be used as a generator solely or with a Generative Adversarial Network; however, KAN has a slower speed of learning than neural networks for the number of parameters. Hence,it has not been researched as a generator. Therefore, we propose a novel Generative Adversarial Network called Generative Adversarial Variational Quantum KAN that uses Variational Quantum KAN as a generator. This method enables efficient learning with significantly fewer parameters by leveraging the computational advantages of quantum circuits and their output distributions. We performed the training and generation task on MNIST and CIFAR10, and revealed that our method can achieve higher accuracy than neural networks and Quantum Generative Adversarial Network with less data.
- Abstract(参考訳): Kolmogorov Arnold Networksは、ニューラルネットワークよりも高い精度を示すことができる新しい多層ニューロモルフィックネットワークである。
パラメータの少ないニューラルネットワークよりも正確に学習し、予測することが可能で、世界中で多くの研究グループが採用している。
その結果,様々な種類の応用が提案されている。
このネットワークはジェネレータとして、あるいはジェネレータとして、あるいはジェネレータとして使用することができるが、パラメータの数でニューラルネットワークよりも学習速度が遅い。
そのため、発電機としての研究は行われていない。
そこで本研究では,変分量子KAを生成元とする生成逆数変分量子KAという,新たな生成逆数ネットワークを提案する。
本手法は,量子回路とその出力分布の計算的優位性を生かして,パラメータを著しく少ない効率的な学習を可能にする。
我々は、MNISTとCIFAR10のトレーニングおよび生成タスクを実行し、より少ないデータで、ニューラルネットワークや量子生成逆ネットワークよりも高い精度を達成できることを明らかにした。
関連論文リスト
- CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Quantum Neuron Selection: Finding High Performing Subnetworks With
Quantum Algorithms [0.0]
最近、大規模でランダムなニューラルネットワークには、完全にトレーニングされたモデルだけでなく、機能する作業が含まれていることが示されている。
この洞察は、大きなランダムモデルから重みを抽出するだけで、将来のニューラルネットワークをトレーニングするための有望な道を提供する。
本稿では,このニューロン選択問題に対して量子アルゴリズムをどのように定式化して適用するかを検討する。
論文 参考訳(メタデータ) (2023-02-12T19:19:48Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Why Quantization Improves Generalization: NTK of Binary Weight Neural
Networks [33.08636537654596]
ニューラルネットワークにおける二分重みを、ラウンドリングの下でのランダム変数とみなし、ニューラルネットワークの異なる層上での分布伝搬について検討する。
本研究では,連続パラメータとスムーズなアクティベーション関数を持つニューラルネットワークである分布伝搬を近似する準ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T06:11:21Z) - A Classical-Quantum Convolutional Neural Network for Detecting Pneumonia
from Chest Radiographs [0.0]
胸部X線写真から肺炎を検出する問題に対して,変分量子回路を古典的ニューラルネットワークに統合する方法を示す。
胸部X線写真を含む画像データセット上で両ネットワークをトレーニングし,その性能をベンチマークする。
このハイブリッドネットワークは,異なる性能指標において従来のネットワークよりも優れており,これらの改善は統計的に有意であることを示す。
論文 参考訳(メタデータ) (2022-02-19T05:13:37Z) - Neural Network Quantization for Efficient Inference: A Survey [0.0]
ニューラルネットワークの量子化は、最近、ニューラルネットワークのサイズと複雑さを減らすというこの要求を満たすために発生した。
本稿では,過去10年間に開発された多くのニューラルネットワーク量子化技術について検討する。
論文 参考訳(メタデータ) (2021-12-08T22:49:39Z) - Recurrent Quantum Neural Networks [7.6146285961466]
リカレントニューラルネットワークは、機械学習における多くのシーケンス対シーケンスモデルの基盤となっている。
非自明なタスクに対して実証可能な性能を持つ量子リカレントニューラルネットワーク(QRNN)を構築する。
我々はQRNNをMNIST分類で評価し、QRNNに各画像ピクセルを供給し、また、最新のデータ拡張を前処理のステップとして利用する。
論文 参考訳(メタデータ) (2020-06-25T17:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。