論文の概要: Hybrid Quantum Transformer for Language Generation
- arxiv url: http://arxiv.org/abs/2511.10653v1
- Date: Sun, 02 Nov 2025 10:17:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-23 18:31:12.221641
- Title: Hybrid Quantum Transformer for Language Generation
- Title(参考訳): 言語生成のためのハイブリッド量子変換器
- Authors: Desheng Kong, Xiangshuo Cui, Jiaying Jin, Jing Xu, Donglin Wang,
- Abstract要約: 本稿では,自然言語生成のための最初のハイブリッド量子古典型大言語モデルであるHyQuTについて述べる。
提案アーキテクチャは,変分量子回路(VQC)を8Mと150MのパラメータスケールでTransformerフレームワークに統合する。
- 参考スコア(独自算出の注目度): 29.00368308390792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although quantum computing has been increasingly applied to replace classical computation, most existing quantum or hybrid models remain confined to simple tasks, with no successful application to large-scale natural language generation to date. In this work, we present the first hybrid quantum-classical large language model (LLM) for natural language generation, HyQuT, capable of performing coherent and context-aware dialogue. The proposed architecture integrates variational quantum circuits (VQCs) into the Transformer framework at both 8M and 150M parameter scales. Experimental results show that a minimal number of qubits (10 qubits with 80 quantum gates) can replace about 10% of the classical parameters in the 150M-parameter model, while achieving comparable convergence stability and generation quality. This study provides an early demonstration of the feasibility of integrating quantum computing to large-scale generative language models.
- Abstract(参考訳): 量子コンピューティングは古典的な計算を置き換えるためにますます応用されてきたが、既存の量子モデルやハイブリッドモデルは依然として単純なタスクに限られており、大規模な自然言語生成には成功していない。
本研究では,自然言語生成のための最初のハイブリッド量子古典型大言語モデルであるHyQuTについて述べる。
提案アーキテクチャは,変分量子回路(VQC)を8Mと150MのパラメータスケールでTransformerフレームワークに統合する。
実験の結果、最小数の量子ビット(80量子ゲートを持つ10量子ビット)は150Mパラメータモデルの古典的パラメータの約10%を置き換えることができ、コンバージェンス安定性と生成品質を同等に達成できることが示された。
この研究は、量子コンピューティングを大規模生成言語モデルに統合する可能性の早期実証を提供する。
関連論文リスト
- Practical Hybrid Quantum Language Models with Observable Readout on Real Hardware [0.764671395172401]
本稿では,ハイブリッド量子言語モデルとして,QRNN(Quantum Recurrent Neural Networks)とQCNN(Quantum Convolutional Neural Networks)を提案する。
我々のアーキテクチャは、ハードウェア最適化パラメトリック量子回路と軽量な古典射影層を組み合わせたものである。
IBM Quantumプロセッサの実験では、回路深さとトレーニング容易性の間の重要なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2025-12-14T14:22:44Z) - Quantum-Enhanced Natural Language Generation: A Multi-Model Framework with Hybrid Quantum-Classical Architectures [2.005299372367689]
本稿では,従来のTransformer/MLPアーキテクチャに対して,量子テキスト生成モデルの包括的評価を行う。
我々はTransformer(ベースライン)、Quantum Kernel Self-Attention Network(QKSAN)、Quantum RWKV(QRWKV)、Quantum Attention Sequence Architecture(QASA)の5つの異なるモデルを比較する実験を行った。
本評価では、テキスト生成品質の異なる側面を評価するために、パープレキシティ、BLEUスコア、語彙多様性、反復率、流速測定など、複数の指標を用いている。
論文 参考訳(メタデータ) (2025-08-29T05:20:18Z) - VQC-MLPNet: An Unconventional Hybrid Quantum-Classical Architecture for Scalable and Robust Quantum Machine Learning [50.95799256262098]
変分量子回路(VQC)は量子機械学習を約束するが、表現性、訓練性、耐雑音性の課題に直面している。
本稿では,VQCが学習中に古典多層パーセプトロンの第一層重みを生成するハイブリッドアーキテクチャであるVQC-MLPNetを提案する。
論文 参考訳(メタデータ) (2025-06-12T01:38:15Z) - Quantum Adaptive Self-Attention for Quantum Transformer Models [0.0]
本稿では,量子アテンション機構を備えた古典的トランスフォーマーモデルを強化するハイブリッドアーキテクチャであるQuantum Adaptive Self-Attention (QASA)を提案する。
QASAはドット積の注意をパラメータ化量子回路(PQC)に置き換え、量子ヒルベルト空間におけるトークン間の関係を適応的に捉える。
合成時系列タスクの実験により、QASAは標準変圧器と古典的変圧器の双方と比較して、より高速な収束と優れた一般化を実現することが示された。
論文 参考訳(メタデータ) (2025-04-05T02:52:37Z) - Quantum-Enhanced Attention Mechanism in NLP: A Hybrid Classical-Quantum Approach [0.0]
本稿では,量子化されたアテンション機構を標準の古典的アーキテクチャに組み込んだ,古典量子変換器のハイブリッドモデルを提案する。
様々なNLPベンチマークにおいて,このアプローチの有効性を実証し,効率と表現能力の両面で改善したことを示す。
論文 参考訳(メタデータ) (2025-01-26T18:29:06Z) - Hybrid Quantum-Classical Normalizing Flow [5.85475369017678]
パラメータ化量子回路に基づくハイブリッド量子古典正規化フロー(HQCNF)モデルを提案する。
我々は画像生成問題でモデルを検証した。
量子生成逆数ネットワーク(QGAN)のような他の量子生成モデルと比較して、我々のモデルはFr'echet 距離(FID)の低いスコアを得る。
論文 参考訳(メタデータ) (2024-05-22T16:37:22Z) - A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - Adapting Pre-trained Language Models for Quantum Natural Language
Processing [33.86835690434712]
事前学習された表現は、エンドツーエンドの量子モデルの容量を50%から60%増加させることができることを示す。
量子シミュレーション実験では、事前訓練された表現は、エンドツーエンドの量子モデルの容量を50%から60%増加させることができる。
論文 参考訳(メタデータ) (2023-02-24T14:59:02Z) - Anticipative measurements in hybrid quantum-classical computation [68.8204255655161]
量子計算を古典的な結果によって補う手法を提案する。
予測の利点を生かして、新しいタイプの量子測度がもたらされる。
予測量子測定では、古典計算と量子計算の結果の組み合わせは最後にのみ起こる。
論文 参考訳(メタデータ) (2022-09-12T15:47:44Z) - When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing [75.75419308975746]
本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
論文 参考訳(メタデータ) (2022-02-17T09:55:21Z) - Tensor Network Quantum Virtual Machine for Simulating Quantum Circuits
at Exascale [57.84751206630535]
本稿では,E-scale ACCelerator(XACC)フレームワークにおける量子回路シミュレーションバックエンドとして機能する量子仮想マシン(TNQVM)の近代化版を提案する。
新バージョンは汎用的でスケーラブルなネットワーク処理ライブラリであるExaTNをベースにしており、複数の量子回路シミュレータを提供している。
ポータブルなXACC量子プロセッサとスケーラブルなExaTNバックエンドを組み合わせることで、ラップトップから将来のエクサスケールプラットフォームにスケール可能なエンドツーエンドの仮想開発環境を導入します。
論文 参考訳(メタデータ) (2021-04-21T13:26:42Z) - Error mitigation and quantum-assisted simulation in the error corrected
regime [77.34726150561087]
量子コンピューティングの標準的なアプローチは、古典的にシミュレート可能なフォールトトレラントな演算セットを促進するという考え方に基づいている。
量子回路の古典的準確率シミュレーションをどのように促進するかを示す。
論文 参考訳(メタデータ) (2021-03-12T20:58:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。