論文の概要: QiVC-Net: Quantum-Inspired Variational Convolutional Network, with Application to Biosignal Classification
- arxiv url: http://arxiv.org/abs/2511.05730v1
- Date: Fri, 07 Nov 2025 21:44:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.552049
- Title: QiVC-Net: Quantum-Inspired Variational Convolutional Network, with Application to Biosignal Classification
- Title(参考訳): QiVC-Net:量子インスパイアされた変分畳み込みネットワークと生体信号分類への応用
- Authors: Amin Golnari, Jamileh Yousefi, Reza Moheimani, Saeid Sanei,
- Abstract要約: この研究は、確率的推論、変分最適化、および畳み込みアーキテクチャ内での量子インスパイアされた変換の原理を統合する新しい学習パラダイムである量子インスパイアされた変分畳み込み(QiVC)フレームワークを導入している。
この概念はQiVCベースの畳み込みネットワーク(QiVC-Net)でインスタンス化され、生体信号分類の文脈で評価される。
PhysioNet CinC 2016 と PhysioNet CirCor DigiScope 2022 の2つのベンチマークデータセットの実験では、QiVC-Net が最先端のパフォーマンスを達成し、それぞれ97.84% と97.89% に達した。
- 参考スコア(独自算出の注目度): 3.6538646907547716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces the quantum-inspired variational convolution (QiVC) framework, a novel learning paradigm that integrates principles of probabilistic inference, variational optimization, and quantum-inspired transformations within convolutional architectures. The central innovation of QiVC lies in its quantum-inspired rotated ensemble (QiRE) mechanism. QiRE performs differentiable low-dimensional subspace rotations of convolutional weights, analogously to quantum state evolution. This approach enables structured uncertainty modeling while preserving the intrinsic geometry of the parameter space, resulting in more expressive, stable, and uncertainty-aware representations. To demonstrate its practical potential, the concept is instantiated in a QiVC-based convolutional network (QiVC-Net) and evaluated in the context of biosignal classification, focusing on phonocardiogram (PCG) recordings, a challenging domain characterized by high noise, inter-subject variability, and often imbalanced data. The proposed QiVC-Net integrates an architecture in which the QiVC layer does not introduce additional parameters, instead performing an ensemble rotation of the convolutional weights through a structured mechanism ensuring robustness without added highly computational burden. Experiments on two benchmark datasets, PhysioNet CinC 2016 and PhysioNet CirCor DigiScope 2022, show that QiVC-Net achieves state-of-the-art performance, reaching accuracies of 97.84% and 97.89%, respectively. These findings highlight the versatility of the QiVC framework and its promise for advancing uncertainty-aware modeling in real-world biomedical signal analysis. The implementation of the QiVConv layer is openly available in GitHub.
- Abstract(参考訳): この研究は、確率的推論、変分最適化、および畳み込みアーキテクチャ内での量子インスパイアされた変換の原理を統合する新しい学習パラダイムである量子インスパイアされた変分畳み込み(QiVC)フレームワークを導入している。
QiVCの中心的な革新は量子インスパイアされた回転アンサンブル(QiRE)機構にある。
QiREは量子状態の進化と同様、畳み込み重みの微分可能な低次元部分空間回転を行う。
このアプローチは、パラメータ空間の内在幾何学を保ちながら構造化された不確実性モデリングを可能にし、より表現力が高く、安定で、不確実性を意識した表現をもたらす。
実際の可能性を示すために、この概念はQiVCベースの畳み込みネットワーク(QiVC-Net)でインスタンス化され、生体信号分類の文脈で評価され、高ノイズ、物体間変動、しばしば不均衡なデータによって特徴づけられる挑戦的領域である心電図(PCG)の記録に焦点を当てる。
提案したQiVC-Netは、QiVC層が追加パラメータを導入せず、高い計算負担を伴わずに頑健性を保証する構造機構を通じて畳み込み重みのアンサンブル回転を行うアーキテクチャを統合する。
PhysioNet CinC 2016 と PhysioNet CirCor DigiScope 2022 の2つのベンチマークデータセットの実験では、QiVC-Net が最先端のパフォーマンスを達成し、それぞれ97.84% と97.89% に達した。
これらの知見は,QiVCフレームワークの汎用性と,実世界のバイオメディカル信号解析における不確実性認識モデリングの進歩への期待を浮き彫りにした。
QiVConvレイヤの実装はGitHubで公開されている。
関連論文リスト
- TensorHyper-VQC: A Tensor-Train-Guided Hypernetwork for Robust and Scalable Variational Quantum Computing [50.95799256262098]
量子機械学習のための新しいテンソルトレイン(TT)誘導ハイパーネットワークフレームワークであるHyper-VQCを紹介する。
我々のフレームワークは、量子回路パラメータの生成を古典的なTTネットワークに委譲し、量子ハードウェアから最適化を効果的に分離する。
これらの結果から、Hyper-VQCは、短期デバイス上での実用的な量子機械学習を促進するためのスケーラブルで耐雑音性のあるフレームワークとして位置づけられる。
論文 参考訳(メタデータ) (2025-08-01T23:37:55Z) - Selective Feature Re-Encoded Quantum Convolutional Neural Network with Joint Optimization for Image Classification [3.8876018618878585]
量子畳み込みニューラルネットワーク(QCNN)は、量子データと古典データの両方を分類する有望な結果を実証している。
本研究では,特徴処理の高度化と分類精度向上のためのQCNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-07-02T18:51:56Z) - EyeSim-VQA: A Free-Energy-Guided Eye Simulation Framework for Video Quality Assessment [68.77813885751308]
EyeSimVQAは、自由エネルギーベースの自己修復を取り入れた新しいVQAフレームワークである。
現状の手法と比較して,EyeSimVQAは競争力や性能に優れることを示す。
論文 参考訳(メタデータ) (2025-06-13T08:00:54Z) - VQC-MLPNet: An Unconventional Hybrid Quantum-Classical Architecture for Scalable and Robust Quantum Machine Learning [50.95799256262098]
変分量子回路(VQC)は量子機械学習を約束するが、表現性、訓練性、耐雑音性の課題に直面している。
本稿では,VQCが学習中に古典多層パーセプトロンの第一層重みを生成するハイブリッドアーキテクチャであるVQC-MLPNetを提案する。
論文 参考訳(メタデータ) (2025-06-12T01:38:15Z) - QSVM-QNN: Quantum Support Vector Machine Based Quantum Neural Network Learning Algorithm for Brain-Computer Interfacing Systems [3.057222561438637]
脳コンピュータインタフェース(BCI)システムは、脳と外部デバイス間の直接通信を可能にする。
進歩にもかかわらず、BCIシステムは、信号の可変性、分類の非効率性、個々のユーザにリアルタイムで適応することの難しさなど、永続的な課題に直面している。
我々は,脳波に基づくBCIタスクの分類精度とロバスト性を改善するために,QSVM-QNNと呼ばれる新しいハイブリッド量子学習モデルを提案する。
論文 参考訳(メタデータ) (2025-05-20T10:48:44Z) - Allostatic Control of Persistent States in Spiking Neural Networks for perception and computation [79.16635054977068]
本稿では,アロスタシスの概念を内部表現の制御に拡張することにより,環境に対する知覚的信念を更新するための新しいモデルを提案する。
本稿では,アトラクタネットワークにおける活動の急増を空間的数値表現として利用する数値認識の応用に焦点を当てる。
論文 参考訳(メタデータ) (2025-03-20T12:28:08Z) - A Novel Spatial-Temporal Variational Quantum Circuit to Enable Deep
Learning on NISQ Devices [12.873184000122542]
本稿では,量子学習における非線形性を統合するために,新しい時空間設計,ST-VQCを提案する。
ST-VQCは、実際の量子コンピュータ上の既存のVQCと比較して30%以上の精度向上を達成できる。
論文 参考訳(メタデータ) (2023-07-19T06:17:16Z) - Weight Re-Mapping for Variational Quantum Algorithms [54.854986762287126]
変動量子回路(VQC)における重み付けの考え方を紹介する。
我々は,8つの分類データセットに対する影響を評価するために,7つの異なる重み再マッピング関数を用いる。
以上の結果から,重量再マッピングによりVQCの収束速度が向上することが示唆された。
論文 参考訳(メタデータ) (2023-06-09T09:42:21Z) - QNEAT: Natural Evolution of Variational Quantum Circuit Architecture [95.29334926638462]
我々は、ニューラルネットワークの量子対する最も有望な候補として登場した変分量子回路(VQC)に注目した。
有望な結果を示す一方で、バレン高原、重みの周期性、アーキテクチャの選択など、さまざまな問題のために、VQCのトレーニングは困難である。
本稿では,VQCの重みとアーキテクチャの両方を最適化するために,自然進化にインスパイアされた勾配のないアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-14T08:03:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。