論文の概要: Design and Implementation of a Quantum Kernel for Natural Language
Processing
- arxiv url: http://arxiv.org/abs/2205.06409v1
- Date: Fri, 13 May 2022 00:45:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 23:19:54.186712
- Title: Design and Implementation of a Quantum Kernel for Natural Language
Processing
- Title(参考訳): 自然言語処理のための量子カーネルの設計と実装
- Authors: Matt Wright
- Abstract要約: この論文はDisCoCatモデルを利用して、NLPタスクのサポートベクトルマシン(SVM)で使用できる量子ベースのカーネル関数を設計する。
i) 遷移振幅アプローチと(ii) SWAP試験の2つの類似性尺度について検討した。
以前の研究から明らかなモデルは単語埋め込みの訓練に使われ、93.09 pm 0.01$%の精度でテストされた。
- 参考スコア(独自算出の注目度): 0.8702432681310401
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural language processing (NLP) is the field that attempts to make human
language accessible to computers, and it relies on applying a mathematical
model to express the meaning of symbolic language. One such model, DisCoCat,
defines how to express both the meaning of individual words as well as their
compositional nature. This model can be naturally implemented on quantum
computers, leading to the field quantum NLP (QNLP). Recent experimental work
used quantum machine learning techniques to map from text to class label using
the expectation value of the quantum encoded sentence. Theoretical work has
been done on computing the similarity of sentences but relies on an unrealized
quantum memory store. The main goal of this thesis is to leverage the DisCoCat
model to design a quantum-based kernel function that can be used by a support
vector machine (SVM) for NLP tasks. Two similarity measures were studied: (i)
the transition amplitude approach and (ii) the SWAP test. A simple NLP meaning
classification task from previous work was used to train the word embeddings
and evaluate the performance of both models. The Python module lambeq and its
related software stack was used for implementation. The explicit model from
previous work was used to train word embeddings and achieved a testing accuracy
of $93.09 \pm 0.01$%. It was shown that both the SVM variants achieved a higher
testing accuracy of $95.72 \pm 0.01$% for approach (i) and $97.14 \pm 0.01$%
for (ii). The SWAP test was then simulated under a noise model defined by the
real quantum device, ibmq_guadalupe. The explicit model achieved an accuracy of
$91.94 \pm 0.01$% while the SWAP test SVM achieved 96.7% on the testing
dataset, suggesting that the kernelized classifiers are resilient to noise.
These are encouraging results and motivate further investigations of our
proposed kernelized QNLP paradigm.
- Abstract(参考訳): 自然言語処理(英: Natural Language Processing、NLP)は、人間の言語をコンピュータで利用できるようにする分野であり、記号言語の意味を表現するために数学的モデルを適用することに依存する。
そのようなモデルの一つであるDisCoCatは、個々の単語の意味と構成の性質の両方を表現する方法を定義している。
このモデルは量子コンピュータ上で自然に実装することができ、場の量子NLP(QNLP)につながる。
最近の実験では、量子符号化文の期待値を用いて、テキストからクラスラベルへのマッピングに量子機械学習技術を用いた。
文の類似性を計算する理論的研究は行われているが、非現実的な量子メモリストアに依存している。
この論文の主な目標は、DisCoCatモデルを利用して、NLPタスクのサポートベクトルマシン(SVM)で使用できる量子ベースのカーネル関数を設計することである。
2つの類似性尺度が研究された。
(i)遷移振幅アプローチ及び遷移振幅アプローチ
(ii)SWAPテスト。
単語の埋め込みを訓練し、両方のモデルの性能を評価するために、従来の作業から分類タスクを意味する単純なNLPを用いた。
Pythonモジュールのlambeqとその関連ソフトウェアスタックは実装に使用された。
以前の研究から明らかなモデルは単語埋め込みの訓練に使われ、93.09 \pm 0.01$%のテスト精度を達成した。
どちらのSVM変種も、アプローチに対して9,5.72 \pm 0.01$%の高いテスト精度を達成した。
(i)および9.7.14 \pm 0.01$%
(ii)
SWAPテストは、実量子デバイス ibmq_guadalupe で定義されたノイズモデルの下でシミュレートされた。
明示的なモデルは911.94 \pm 0.01$%の精度を達成し、SWAPテストSVMは96.7%のテストデータセットで達成した。
これらの結果は,我々の提案するカーネル化QNLPパラダイムのさらなる研究の動機となっている。
関連論文リスト
- Extending Quantum Perceptrons: Rydberg Devices, Multi-Class Classification, and Error Tolerance [67.77677387243135]
量子ニューロモーフィックコンピューティング(QNC)は、量子計算とニューラルネットワークを融合して、量子機械学習(QML)のためのスケーラブルで耐雑音性のあるアルゴリズムを作成する
QNCの中核は量子パーセプトロン(QP)であり、相互作用する量子ビットのアナログダイナミクスを利用して普遍的な量子計算を可能にする。
論文 参考訳(メタデータ) (2024-11-13T23:56:20Z) - Toward Quantum Machine Translation of Syntactically Distinct Languages [0.0]
ノイズの多い中間規模量子(NISQ)デバイス上での量子自然言語処理アルゴリズムを用いた言語翻訳の実現可能性について検討する。
パラメタライズド量子回路の性能において、回転ゲートの適切な角度が重要な役割を果たすことを示すためにシャノンエントロピーを用いる。
論文 参考訳(メタデータ) (2023-07-31T11:24:54Z) - Enhancing Self-Consistency and Performance of Pre-Trained Language
Models through Natural Language Inference [72.61732440246954]
大規模な事前訓練された言語モデルは、テスト入力間の論理的一貫性を欠いていることが多い。
本研究では,事前学習したNLPモデルの一貫性と精度を高めるためのフレームワークであるConCoRDを提案する。
ConCoRDは、市販のクローズドブックQAおよびVQAモデルの精度と一貫性を一貫して向上することを示す。
論文 参考訳(メタデータ) (2022-11-21T21:58:30Z) - Hierarchical Phrase-based Sequence-to-Sequence Learning [94.10257313923478]
本稿では、学習中の帰納バイアスの源として階層的フレーズを取り入れ、推論中の明示的な制約として、標準的なシーケンス・ツー・シーケンス(seq2seq)モデルの柔軟性を維持するニューラルトランスデューサについて述べる。
本手法では,木が原文と対象句を階層的に整列するブラケット文法に基づく識別的導出法と,整列した句を1対1で翻訳するニューラルネットワークセク2セックモデルという2つのモデルを訓練する。
論文 参考訳(メタデータ) (2022-11-15T05:22:40Z) - Validation tests of GBS quantum computers give evidence for quantum
advantage with a decoherent target [62.997667081978825]
複数モードデータの検証に指紋としてグループカウント確率の正P位相空間シミュレーションを用いる。
偽データを解き放つ方法を示し、これを古典的なカウントアルゴリズムに適用する。
論文 参考訳(メタデータ) (2022-11-07T12:00:45Z) - QNet: A Quantum-native Sequence Encoder Architecture [2.8099769011264586]
この研究は、量子コンピュータ上で最小の量子ビットを用いて完全に推論する新しいシーケンスエンコーダモデルQNetを提案する。
さらに,残差接続によってリンクされた数個のQNetブロックからなる量子古典ハイブリッドモデルResQNetを紹介する。
論文 参考訳(メタデータ) (2022-10-31T12:36:37Z) - A multiclass Q-NLP sentiment analysis experiment using DisCoCat [0.0]
我々は、DisCoCatの言語モデルを用いて、NISQ(Noisy Intermediate Scale Computing)時代の感情分析に取り組む。
まず量子コンピューティングの基礎とDisCoCatモデルを示す。
これにより、量子コンピュータ上でNLPタスクを実行するための一般的なフレームワークを定義することができる。
論文 参考訳(メタデータ) (2022-09-07T13:47:35Z) - Near-Term Advances in Quantum Natural Language Processing [0.03298597939573778]
本稿では,自然言語処理におけるいくつかのタスクが,量子コンピュータを用いてすでに実行可能であることを示す実験について述べる。
1つ目は、単語トピックのスコアリング重みを個々のキュービットの分数回転として実装する、明示的な単語ベースのアプローチである。
制御NOTゲートを絡み合わせることで、これらの重みの蓄積に基づいて、新しいフレーズを分類する。
論文 参考訳(メタデータ) (2022-06-05T13:10:46Z) - Quark: Controllable Text Generation with Reinforced Unlearning [68.07749519374089]
大規模言語モデルは、しばしばユーザの期待に合わない振る舞いを学ぶ。
本稿では,(不必要な)特性を定量化する報酬関数を最適化するアルゴリズムQuarkを紹介する。
未学習の毒性、ネガティブな感情、反復について、我々の実験はQuarkが強いベースラインと最先端の強化学習法の両方より優れていることを示している。
論文 参考訳(メタデータ) (2022-05-26T21:11:51Z) - Differentiable Model Compression via Pseudo Quantization Noise [99.89011673907814]
本稿では,モデルパラメータに独立な擬似量子化雑音を加えて量子化演算子の効果を近似する。
本手法が,画像分類,言語モデリング,音声ソース分離などのベンチマークやアーキテクチャにおいて,最先端の量子化技術を上回ることを実験的に検証した。
論文 参考訳(メタデータ) (2021-04-20T14:14:03Z) - QNLP in Practice: Running Compositional Models of Meaning on a Quantum
Computer [0.7194733565949804]
本研究では,NISQ(Noisy Intermediate-Scale Quantum)コンピュータ上で行った最初のNLP実験について報告する。
我々は、量子回路への自然なマッピングを持つ文の表現を作成する。
我々は、量子ハードウェア上で単純な文分類タスクを解くNLPモデルをうまく訓練する。
論文 参考訳(メタデータ) (2021-02-25T13:37:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。