論文の概要: Towards Sample Efficient Entanglement Classification for 3 and 4 Qubit Systems: A Tailored CNN-BiLSTM Approach
- arxiv url: http://arxiv.org/abs/2601.22562v1
- Date: Fri, 30 Jan 2026 04:59:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.230587
- Title: Towards Sample Efficient Entanglement Classification for 3 and 4 Qubit Systems: A Tailored CNN-BiLSTM Approach
- Title(参考訳): 3 と 4 の量子ビット系のサンプル効率な絡み合い分類に向けて: テーラー付き CNN-BiLSTM アプローチ
- Authors: Qian Sun, Yuedong Sun, Yu Hu, Yihan Ma, Runqi Han, Nan Jiang,
- Abstract要約: 畳み込みと双方向長短期記憶ネットワーク(CNN-BiLSTM)を統合したハイブリッドニューラルネットワークアーキテクチャを提案する。
この設計では、ローカルな特徴抽出にCNN、シーケンシャルな依存性モデリングにBiLSTMを活用し、最小限のトレーニングデータから堅牢な特徴学習を可能にする。
わずか100のサンプルでトレーニングされた場合、アーキテクチャ2は3ビットと4ビットの両方で90%を超える分類精度を維持し、数十のエポックで急速に失われることを示した。
- 参考スコア(独自算出の注目度): 6.448866790627225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate classification of multipartite entanglement in high-dimensional quantum systems is crucial for advancing quantum communication and information processing. However, conventional methods are resource-intensive, and even many machine-learning-based approaches necessitate large training datasets, creating a significant experimental bottleneck for data acquisition. To address this challenge, we propose a hybrid neural network architecture integrating Convolutional and Bidirectional Long Short-Term Memory networks (CNN-BiLSTM). This design leverages CNNs for local feature extraction and BiLSTMs for sequential dependency modeling, enabling robust feature learning from minimal training data. We investigate two fusion paradigms: Architecture 1 (flattening-based) and Architecture 2 (dimensionality-transforming). When trained on only 100 samples, Architecture 2 maintains classification accuracies exceeding 90% for both 3-qubit and 4-qubit systems, demonstrating rapid loss convergence within tens of epochs. Under full-data conditions (400 000 samples), both architectures achieve accuracies above 99.97%. Comparative benchmarks reveal that our CNN-BiLSTM models, especially Architecture 2, consistently outperform standalone CNNs, BiLSTMs, and MLPs in low-data regimes, albeit with increased training time. These results demonstrates that the tailored CNN-BiLSTM fusion significantly alleviates experimental data acquisition burden, offering a practical pathway toward scalable entanglement verification in complex quantum systems.
- Abstract(参考訳): 高次元量子システムにおける複数粒子の絡み合いの正確な分類は、量子通信と情報処理の進歩に不可欠である。
しかし、従来の手法はリソース集約的であり、多くの機械学習ベースのアプローチでさえ、大規模なトレーニングデータセットを必要とするため、データ取得に重大な実験的なボトルネックが生じる。
この課題に対処するため,CNN-BiLSTM(Convolutional and Bidirectional Long Short-Term Memory Network)を統合したハイブリッドニューラルネットワークアーキテクチャを提案する。
この設計では、ローカルな特徴抽出にCNN、シーケンシャルな依存性モデリングにBiLSTMを活用し、最小限のトレーニングデータから堅牢な特徴学習を可能にする。
アーキテクチャ1(フラット化ベース)とアーキテクチャ2(次元変換)の2つの融合パラダイムについて検討する。
わずか100のサンプルでトレーニングすると、アーキテクチャ2は3ビットと4ビットの両方で90%を超える分類精度を維持し、数十のエポックで急速に損失収束を示す。
完全なデータ条件(400 000サンプル)では、どちらのアーキテクチャも99.97%以上の精度を達成している。
比較ベンチマークにより、我々のCNN-BiLSTMモデル、特にアーキテクチャ2は、トレーニング時間の増加にもかかわらず、低データでスタンドアロンのCNN、BiLSTM、MPPを一貫して上回ります。
これらの結果は、CNN-BiLSTM融合が実験的なデータ取得の負担を大幅に軽減し、複雑な量子システムにおけるスケーラブルな絡み合い検証への実践的な経路を提供することを示す。
関連論文リスト
- Active Learning Strategies for Efficient Machine-Learned Interatomic Potentials Across Diverse Material Systems [0.0]
我々は、機械学習による原子間ポテンシャルに対する情報的学習構造を反復的に選択する能動的学習フレームワークを開発する。
知的データ選択戦略は、ランダムなベースラインに比べてラベル付きサンプルを5-13%減らして目標精度を達成できることを示す。
パイプライン全体は、Google Colab上で8GB以下のRAMを使用して、システム毎に4時間以内で実行される。
論文 参考訳(メタデータ) (2026-01-11T13:52:28Z) - Time Elastic Neural Networks [2.1756081703276]
時間弾性ニューラルネットワーク(teNN)という,非定型ニューラルネットワークアーキテクチャの導入と詳細化について述べる。
古典的ニューラルネットワークアーキテクチャと比較して新しいのは、時間ゆがみ能力を明確に組み込んでいることだ。
トレーニング過程において,TENNは各細胞に必要となるニューロン数を減少させることに成功した。
論文 参考訳(メタデータ) (2024-05-27T09:01:30Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Image Classification using Sequence of Pixels [3.04585143845864]
本研究では,繰り返しニューラルネットワークを用いた逐次画像分類法の比較を行った。
本稿では,Long-Short-Term memory(LSTM)やBidirectional Long-Short-Term memory(BiLSTM)アーキテクチャに基づく手法について述べる。
論文 参考訳(メタデータ) (2022-09-23T09:42:44Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - A Novel Approach For Analysis of Distributed Acoustic Sensing System
Based on Deep Transfer Learning [0.0]
畳み込みニューラルネットワークは、空間情報を抽出するための非常に有能なツールである。
LSTM(Long-Short term memory)は、シーケンシャルデータを処理するための有効な機器である。
我々のフレームワークのVGG-16アーキテクチャは、50のトレーニングで100%の分類精度が得られる。
論文 参考訳(メタデータ) (2022-06-24T19:56:01Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - A Two-Stage Approach to Device-Robust Acoustic Scene Classification [63.98724740606457]
デバイスロバスト性を改善するために,完全畳み込みニューラルネットワーク(CNN)に基づく2段階システムを提案する。
以上の結果から,提案したASCシステムにより,開発環境における最先端の精度が得られた。
クラスアクティベーションマッピングを用いたニューラルサリエンシ解析により、モデルによって学習されたパターンに関する新たな洞察が得られる。
論文 参考訳(メタデータ) (2020-11-03T03:27:18Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。