論文の概要: Adapting Pre-trained Language Models for Quantum Natural Language
Processing
- arxiv url: http://arxiv.org/abs/2302.13812v1
- Date: Fri, 24 Feb 2023 14:59:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 15:30:33.118404
- Title: Adapting Pre-trained Language Models for Quantum Natural Language
Processing
- Title(参考訳): 量子自然言語処理のための事前学習言語モデルの適用
- Authors: Qiuchi Li, Benyou Wang, Yudong Zhu, Christina Lioma and Qun Liu
- Abstract要約: 事前学習された表現は、エンドツーエンドの量子モデルの容量を50%から60%増加させることができることを示す。
量子シミュレーション実験では、事前訓練された表現は、エンドツーエンドの量子モデルの容量を50%から60%増加させることができる。
- 参考スコア(独自算出の注目度): 33.86835690434712
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The emerging classical-quantum transfer learning paradigm has brought a
decent performance to quantum computational models in many tasks, such as
computer vision, by enabling a combination of quantum models and classical
pre-trained neural networks. However, using quantum computing with pre-trained
models has yet to be explored in natural language processing (NLP). Due to the
high linearity constraints of the underlying quantum computing infrastructures,
existing Quantum NLP models are limited in performance on real tasks. We fill
this gap by pre-training a sentence state with complex-valued BERT-like
architecture, and adapting it to the classical-quantum transfer learning scheme
for sentence classification. On quantum simulation experiments, the pre-trained
representation can bring 50\% to 60\% increases to the capacity of end-to-end
quantum models.
- Abstract(参考訳): 古典量子移動学習パラダイムは、量子モデルと古典的事前学習ニューラルネットワークを組み合わせることで、コンピュータビジョンのような多くのタスクにおける量子計算モデルに十分なパフォーマンスをもたらした。
しかし、事前訓練されたモデルを用いた量子コンピューティングは、自然言語処理(NLP)では研究されていない。
基礎となる量子コンピューティング基盤の高線形性制約のため、既存の量子nlpモデルは実際のタスクでの性能に制限がある。
このギャップを補うために、複雑な値のBERTのようなアーキテクチャで文状態の事前学習を行い、古典的量子変換学習方式に適応する。
量子シミュレーション実験では、事前学習された表現は、エンドツーエンドの量子モデルのキャパシティに50%から60%の増加をもたらす。
関連論文リスト
- Let the Quantum Creep In: Designing Quantum Neural Network Models by
Gradually Swapping Out Classical Components [1.024113475677323]
現代のAIシステムはニューラルネットワーク上に構築されることが多い。
古典的ニューラルネットワーク層を量子層に置き換える枠組みを提案する。
画像分類データセットの数値実験を行い、量子部品の体系的導入による性能変化を実証する。
論文 参考訳(メタデータ) (2024-09-26T07:01:29Z) - Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - QTRL: Toward Practical Quantum Reinforcement Learning via Quantum-Train [18.138290778243075]
我々はQTRLと呼ばれる強化学習タスクにQuantum-Train法を適用し、古典的なポリシーネットワークモデルを訓練する。
QTRLのトレーニング結果は古典的なモデルであり、推論段階は古典的なコンピュータのみを必要とする。
論文 参考訳(メタデータ) (2024-07-08T16:41:03Z) - A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - Bridging Classical and Quantum Machine Learning: Knowledge Transfer From
Classical to Quantum Neural Networks Using Knowledge Distillation [0.0]
本稿では,知識蒸留を用いた古典的ニューラルネットワークから量子ニューラルネットワークへ知識を伝達する新しい手法を提案する。
我々は、LeNetやAlexNetのような古典的畳み込みニューラルネットワーク(CNN)アーキテクチャを教師ネットワークとして活用する。
量子モデルは、MNISTデータセットで0.80%、より複雑なFashion MNISTデータセットで5.40%の平均精度改善を達成する。
論文 参考訳(メタデータ) (2023-11-23T05:06:43Z) - Shadows of quantum machine learning [2.236957801565796]
トレーニング中にのみ量子リソースを必要とする量子モデルの新たなクラスを導入し、トレーニングされたモデルの展開は古典的である。
このモデルのクラスは古典的に展開された量子機械学習において普遍的であることを証明している。
論文 参考訳(メタデータ) (2023-05-31T18:00:02Z) - When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing [75.75419308975746]
本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
論文 参考訳(メタデータ) (2022-02-17T09:55:21Z) - Comparing concepts of quantum and classical neural network models for
image classification task [0.456877715768796]
本資料は、ハイブリッド量子古典ニューラルネットワークのトレーニングと性能に関する実験結果を含む。
シミュレーションは時間を要するが、量子ネットワークは時間を要するが、古典的なネットワークを克服する。
論文 参考訳(メタデータ) (2021-08-19T18:49:30Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - The Hintons in your Neural Network: a Quantum Field Theory View of Deep
Learning [84.33745072274942]
線形および非線形の層をユニタリ量子ゲートとして表現する方法を示し、量子モデルの基本的な励起を粒子として解釈する。
ニューラルネットワークの研究のための新しい視点と技術を開くことに加えて、量子定式化は光量子コンピューティングに適している。
論文 参考訳(メタデータ) (2021-03-08T17:24:29Z) - Quantum Deformed Neural Networks [83.71196337378022]
我々は,量子コンピュータ上で効率的に動作するように設計された新しい量子ニューラルネットワーク層を開発した。
入力状態の絡み合いに制限された場合、古典的なコンピュータでシミュレートすることができる。
論文 参考訳(メタデータ) (2020-10-21T09:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。