論文の概要: When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing
- arxiv url: http://arxiv.org/abs/2203.03550v1
- Date: Thu, 17 Feb 2022 09:55:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-13 17:10:33.496604
- Title: When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing
- Title(参考訳): 不均一コンピューティングにおけるテキスト分類のための量子時間畳み込み学習
- Authors: Chao-Han Huck Yang, Jun Qi, Samuel Yen-Chi Chen, Yu Tsao, Pin-Yu Chen
- Abstract要約: 本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
- 参考スコア(独自算出の注目度): 75.75419308975746
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The rapid development of quantum computing has demonstrated many unique
characteristics of quantum advantages, such as richer feature representation
and more secured protection on model parameters. This work proposes a vertical
federated learning architecture based on variational quantum circuits to
demonstrate the competitive performance of a quantum-enhanced pre-trained BERT
model for text classification. In particular, our proposed hybrid
classical-quantum model consists of a novel random quantum temporal convolution
(QTC) learning framework replacing some layers in the BERT-based decoder. Our
experiments on intent classification show that our proposed BERT-QTC model
attains competitive experimental results in the Snips and ATIS spoken language
datasets. Particularly, the BERT-QTC boosts the performance of the existing
quantum circuit-based language model in two text classification datasets by
1.57% and 1.52% relative improvements. Furthermore, BERT-QTC can be feasibly
deployed on both existing commercial-accessible quantum computation hardware
and CPU-based interface for ensuring data isolation.
- Abstract(参考訳): 量子コンピューティングの急速な発展は、よりリッチな特徴表現やモデルパラメータのよりセキュアな保護など、量子アドバンテージの多くの特徴を示している。
本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
特に,提案するハイブリッド古典量子モデルは,BERTデコーダのいくつかの層を置き換える新しいランダム量子時間畳み込み(QTC)学習フレームワークで構成されている。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
特にbert-qtcは、2つのテキスト分類データセットにおける既存の量子回路ベースの言語モデルのパフォーマンスを1.57%向上させた。
さらにBERT-QTCは、既存の商用アクセス可能な量子計算ハードウェアとCPUベースのインターフェースの両方にデプロイ可能で、データの分離を保証することができる。
関連論文リスト
- Federated Quantum-Train with Batched Parameter Generation [3.697453416360906]
我々は、QTモデルをフェデレートラーニングに統合する、Federated Quantum-Train(QT)フレームワークを紹介する。
提案手法は, 一般化誤差を低減しつつ, 量子ビット使用量を19から8キュービットまで大幅に削減する。
論文 参考訳(メタデータ) (2024-09-04T14:39:11Z) - A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - Disentangling Quantum and Classical Contributions in Hybrid Quantum
Machine Learning Architectures [4.646930308096446]
ハイブリッドトランスファー学習ソリューションが開発され、訓練済みの古典モデルと量子回路を融合した。
それぞれのコンポーネント(古典的、量子的)がモデルの結果にどの程度貢献するかは、まだ不明である。
本稿では,プレトレーニングされたネットワークを圧縮に利用する代わりに,オートエンコーダを用いて,圧縮したデータから圧縮したデータを導出するハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-11-09T18:13:50Z) - A Novel Spatial-Temporal Variational Quantum Circuit to Enable Deep
Learning on NISQ Devices [12.873184000122542]
本稿では,量子学習における非線形性を統合するために,新しい時空間設計,ST-VQCを提案する。
ST-VQCは、実際の量子コンピュータ上の既存のVQCと比較して30%以上の精度向上を達成できる。
論文 参考訳(メタデータ) (2023-07-19T06:17:16Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - Adapting Pre-trained Language Models for Quantum Natural Language
Processing [33.86835690434712]
事前学習された表現は、エンドツーエンドの量子モデルの容量を50%から60%増加させることができることを示す。
量子シミュレーション実験では、事前訓練された表現は、エンドツーエンドの量子モデルの容量を50%から60%増加させることができる。
論文 参考訳(メタデータ) (2023-02-24T14:59:02Z) - TeD-Q: a tensor network enhanced distributed hybrid quantum machine
learning framework [59.07246314484875]
TeD-Qは、量子機械学習のためのオープンソースのソフトウェアフレームワークである。
古典的な機械学習ライブラリと量子シミュレータをシームレスに統合する。
量子回路とトレーニングの進捗をリアルタイムで視覚化できるグラフィカルモードを提供する。
論文 参考訳(メタデータ) (2023-01-13T09:35:05Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Hybrid quantum-classical classifier based on tensor network and
variational quantum circuit [0.0]
本稿では、量子インスパイアされたテンソルネットワーク(TN)と変分量子回路(VQC)を組み合わせて教師付き学習タスクを行うハイブリッドモデルを提案する。
低結合次元の行列積状態に基づくTNは、MNISTデータセットのバイナリ分類において、VQCの入力のためのデータを圧縮する特徴抽出器としてPCAよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-30T09:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。