論文の概要: Quantum-Enhanced Natural Language Generation: A Multi-Model Framework with Hybrid Quantum-Classical Architectures
- arxiv url: http://arxiv.org/abs/2508.21332v1
- Date: Fri, 29 Aug 2025 05:20:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.929883
- Title: Quantum-Enhanced Natural Language Generation: A Multi-Model Framework with Hybrid Quantum-Classical Architectures
- Title(参考訳): 量子拡張自然言語生成:ハイブリッド量子古典アーキテクチャを用いたマルチモデルフレームワーク
- Authors: Chi-Sheng Chen, En-Jui Kuo,
- Abstract要約: 本稿では,従来のTransformer/MLPアーキテクチャに対して,量子テキスト生成モデルの包括的評価を行う。
我々はTransformer(ベースライン)、Quantum Kernel Self-Attention Network(QKSAN)、Quantum RWKV(QRWKV)、Quantum Attention Sequence Architecture(QASA)の5つの異なるモデルを比較する実験を行った。
本評価では、テキスト生成品質の異なる側面を評価するために、パープレキシティ、BLEUスコア、語彙多様性、反復率、流速測定など、複数の指標を用いている。
- 参考スコア(独自算出の注目度): 2.005299372367689
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a comprehensive evaluation of quantum text generation models against traditional Transformer/MLP architectures, addressing the growing interest in quantum computing applications for natural language processing. We conduct systematic experiments comparing five distinct models: Transformer (baseline), Quantum Kernel Self-Attention Network (QKSAN), Quantum RWKV (QRWKV), and Quantum Attention Sequence Architecture (QASA) across five diverse datasets including simple sentences, short stories, quantum phrases, haiku poetry, and proverbs. Our evaluation employs multiple metrics including perplexity, BLEU scores, vocabulary diversity, repetition rates, and fluency measures to assess different aspects of text generation quality. The experimental results reveal that while traditional Transformer models maintain overall superiority with the lowest average perplexity (1.21) and highest BLEU-1 score (0.2895), quantum-inspired models demonstrate competitive performance in specific scenarios. Notably, QKSAN achieves a competitive BLEU-1 score of 0.2800 while maintaining zero repetition rates, and QRWKV demonstrates perfect vocabulary diversity (Distinct-1 = 1.000) in certain tasks.
- Abstract(参考訳): 本稿では,従来のTransformer/MLPアーキテクチャに対する量子テキスト生成モデルの包括的な評価を行い,自然言語処理における量子コンピューティングアプリケーションへの関心の高まりに対処する。
翻訳者(ベースライン)、量子カーネル自己認識ネットワーク(QKSAN)、量子RWKV(QRWKV)、量子注意シーケンスアーキテクチャ(QASA)の5つの異なるモデルの比較実験を行った。
本評価では、テキスト生成品質の異なる側面を評価するために、パープレキシティ、BLEUスコア、語彙多様性、反復率、流速測定など、複数の指標を用いている。
実験結果から, 従来のトランスフォーマーモデルでは, 平均パープレキシティが1.21, BLEU-1スコアが0.2895であったのに対し, 量子インスパイアモデルでは, 特定のシナリオにおいて競争性能が向上していることがわかった。
特に、QKSANはゼロ繰り返し率を維持しながら、競合するBLEU-1スコアの0.2800を達成し、QRWKVは特定のタスクにおいて完全な語彙の多様性(Distinct-1 = 1.000)を示す。
関連論文リスト
- VQC-MLPNet: An Unconventional Hybrid Quantum-Classical Architecture for Scalable and Robust Quantum Machine Learning [60.996803677584424]
変分量子回路(VQC)は、量子機械学習のための新しい経路を提供する。
それらの実用的応用は、制約付き線形表現性、最適化課題、量子ハードウェアノイズに対する鋭敏感といった固有の制限によって妨げられている。
この研究は、これらの障害を克服するために設計されたスケーラブルで堅牢なハイブリッド量子古典アーキテクチャであるVQC-MLPNetを導入している。
論文 参考訳(メタデータ) (2025-06-12T01:38:15Z) - Devanagari Digit Recognition using Quantum Machine Learning [0.0]
本稿では,手書き文字認識のための最初のハイブリッド量子古典アーキテクチャを提案する。
提案したモデルは99.80%の量子実装と0.2893の試験損失に対する最先端のテスト精度を達成する。
重ね合わせや絡み合いなどの量子原理を活用することで、この研究は地域スクリプト認識のための新しいベンチマークを確立する。
論文 参考訳(メタデータ) (2025-06-08T23:49:23Z) - Quantum-Enhanced Attention Mechanism in NLP: A Hybrid Classical-Quantum Approach [0.0]
本稿では,量子化されたアテンション機構を標準の古典的アーキテクチャに組み込んだ,古典量子変換器のハイブリッドモデルを提案する。
様々なNLPベンチマークにおいて,このアプローチの有効性を実証し,効率と表現能力の両面で改善したことを示す。
論文 参考訳(メタデータ) (2025-01-26T18:29:06Z) - Multimodal Quantum Natural Language Processing: A Novel Framework for using Quantum Methods to Analyse Real Data [0.0]
この論文は、量子計算法が言語の合成モデリングをどのように強化するかを考察する。
具体的には、マルチモーダル量子自然言語処理 (MQNLP) を Lambeq ツールキットを用いて進める。
結果は、構文ベースのモデル、特にDisCoCatやTreeReaderが文法構造を効果的に捉えるのに優れていることを示している。
論文 参考訳(メタデータ) (2024-10-29T19:03:43Z) - Graph Neural Networks for Parameterized Quantum Circuits Expressibility Estimation [5.074765131677166]
本稿では,グラフニューラルネットワーク(GNN)を用いた量子回路の表現可能性推定手法を提案する。
我々は、ノイズのないIBM QASMシミュレータから25,000のサンプルと、3つのノイズの多い量子バックエンドから12,000のサンプルからなるデータセットを用いて、GNNモデルの予測能力を実証した。
論文 参考訳(メタデータ) (2024-05-13T18:26:55Z) - A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - A performance characterization of quantum generative models [35.974070202997176]
量子生成モデリングに使用される量子回路を比較する。
2つの一般的なトレーニング手法を用いてデータセットの確率分布を学習する。
確率分布のコプラを学習する離散アーキテクチャの変種が、他のすべての手法より優れていることを実証的に見出した。
論文 参考訳(メタデータ) (2023-01-23T11:00:29Z) - When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing [75.75419308975746]
本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
論文 参考訳(メタデータ) (2022-02-17T09:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。