論文の概要: QTP-Net: A Quantum Text Pre-training Network for Natural Language Processing
- arxiv url: http://arxiv.org/abs/2506.00321v1
- Date: Sat, 31 May 2025 00:17:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:32.774216
- Title: QTP-Net: A Quantum Text Pre-training Network for Natural Language Processing
- Title(参考訳): QTP-Net:自然言語処理のための量子テキスト事前学習ネットワーク
- Authors: Ren-Xin Zhao,
- Abstract要約: 自然言語処理タスクの性能向上のために,量子テキスト事前学習ネットワーク(QTP-Net)を提案する。
QTP-Netは、単語の複数の意味を量子重畳状態にエンコードし、適応GAを利用してリッチテキスト特徴を高速にキャプチャする。
SCでは、QTP-Netは平均精度を0.024、F1スコアを0.029、ベンチマークデータセットを6つ改善している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural Language Processing (NLP) faces challenges in the ability to quickly model polysemous words. The Grover's Algorithm (GA) is expected to solve this problem but lacks adaptability. To address the above dilemma, a Quantum Text Pre-training Network (QTP-Net) is proposed to improve the performance of NLP tasks. First, a Quantum Enhanced Pre-training Feature Embedding (QEPFE) is developed to encode multiple meanings of words into quantum superposition states and exploit adaptive GA to fast capture rich text features. Subsequently, the QEPFE is combined with the Enhanced Representation through kNowledge IntEgration (ERNIE), a pre-trained language model proposed by Baidu, to construct QTP-Net, which is evaluated on Sentiment Classification (SC) and Word Sense Disambiguation (WSD) tasks. Experiments show that in SC, the QTP-Net improves the average accuracy by 0.024 and the F1 score by 0.029 on six benchmark datasets, comprehensively outperforming both classical and quantum-inspired models. In WSD, it reaches 0.784 average F1 score, which is 0.016 higher than the sub-optimal GlossBERT, and significantly leads on SE2, SE13, and SE15. QTP-Net provides a new solution for implicit semantic modeling in NLP and lays the foundation for future research on quantum-enhanced models.
- Abstract(参考訳): 自然言語処理(NLP)は多文語を素早くモデル化する能力において課題に直面している。
Grover's Algorithm (GA)はこの問題を解決するが、適応性に欠ける。
上記のジレンマに対処するため,NLPタスクの性能向上のため,量子テキスト事前学習ネットワーク(QTP-Net)を提案する。
まず、QEPFE(Quantum Enhanced Pre-training Feature Embedding)を開発し、複数の単語の意味を量子重ね合わせ状態にエンコードし、適応GAを利用してリッチテキスト特徴を高速にキャプチャする。
その後、QEPFEは、Baiduが提案した事前学習言語モデルであるkNowledge IntEgration (ERNIE)による拡張表現と組み合わせて、感性分類(SC)とワードセンス曖昧化(WSD)タスクに基づいて評価されたQTP-Netを構築する。
SCでは、QTP-Netは6つのベンチマークデータセットで平均精度を0.024、F1スコアを0.029改善し、古典的モデルと量子的モデルの両方を総合的に上回っている。
WSDでは平均F1スコア0.784に達し、これは準最適GrossBERTよりも0.016高く、SE2、SE13、SE15に大きく貢献する。
QTP-Netは、NLPにおける暗黙的なセマンティックモデリングのための新しいソリューションを提供し、将来の量子強化モデル研究の基礎となる。
関連論文リスト
- Multi-Scale Feature Fusion Quantum Depthwise Convolutional Neural Networks for Text Classification [3.0079490585515343]
量子畳み込みに基づく新しい量子ニューラルネットワーク(QNN)モデルを提案する。
我々は、パラメータの数を著しく減らし、計算複雑性を下げる量子深度畳み込みを開発する。
また,単語レベルの特徴と文レベルの特徴を統合することで,モデル性能を向上させるマルチスケール機能融合機構を導入する。
論文 参考訳(メタデータ) (2024-05-22T10:19:34Z) - Pointer Networks with Q-Learning for Combinatorial Optimization [55.2480439325792]
我々は、モデルフリーQ値ポリシー近似をPointer Networks(Ptr-Nets)と統合したハイブリッドニューラルネットワークであるPointer Q-Network(PQN)を紹介する。
実験により,本手法の有効性を実証し,不安定な環境でモデルをテストする。
論文 参考訳(メタデータ) (2023-11-05T12:03:58Z) - Rethinking Model Selection and Decoding for Keyphrase Generation with
Pre-trained Sequence-to-Sequence Models [76.52997424694767]
キーフレーズ生成(英: Keyphrase Generation, KPG)は、NLPにおける長年の課題である。
Seq2seq 事前訓練言語モデル (PLM) は KPG に転換期を迎え、有望な性能改善をもたらした。
本稿では, PLM に基づく KPG におけるモデル選択と復号化戦略の影響について, 系統解析を行った。
論文 参考訳(メタデータ) (2023-10-10T07:34:45Z) - Toward Quantum Machine Translation of Syntactically Distinct Languages [0.0]
ノイズの多い中間規模量子(NISQ)デバイス上での量子自然言語処理アルゴリズムを用いた言語翻訳の実現可能性について検討する。
パラメタライズド量子回路の性能において、回転ゲートの適切な角度が重要な役割を果たすことを示すためにシャノンエントロピーを用いる。
論文 参考訳(メタデータ) (2023-07-31T11:24:54Z) - Optimizing Quantum Federated Learning Based on Federated Quantum Natural
Gradient Descent [17.05322956052278]
本稿では、FQNGD(Federated Quantum Natural descent)という効率的な最適化アルゴリズムを提案する。
アダムやアダグラードのような勾配降下法と比較して、FQNGDアルゴリズムは収束するQFLのトレーニングをはるかに少なくする。
手書き桁分類データセットの実験は、QFLフレームワークにおけるFQNGDの有効性を正当化するものである。
論文 参考訳(メタデータ) (2023-02-27T11:34:16Z) - Design and Implementation of a Quantum Kernel for Natural Language
Processing [0.8702432681310401]
この論文はDisCoCatモデルを利用して、NLPタスクのサポートベクトルマシン(SVM)で使用できる量子ベースのカーネル関数を設計する。
i) 遷移振幅アプローチと(ii) SWAP試験の2つの類似性尺度について検討した。
以前の研究から明らかなモデルは単語埋め込みの訓練に使われ、93.09 pm 0.01$%の精度でテストされた。
論文 参考訳(メタデータ) (2022-05-13T00:45:46Z) - Quantum Self-Attention Neural Networks for Text Classification [8.975913540662441]
量子自己アテンションニューラルネットワーク(QSANN)と呼ばれる,新しいシンプルなネットワークアーキテクチャを提案する。
本稿では,量子ニューラルネットワークに自己アテンション機構を導入し,ガウス射影量子自己アテンションを自己アテンションの有感な量子バージョンとして活用する。
提案手法は低レベル量子雑音に対するロバスト性を示し,量子ニューラルネットワークアーキテクチャに対するレジリエンスを示す。
論文 参考訳(メタデータ) (2022-05-11T16:50:46Z) - When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing [75.75419308975746]
本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
論文 参考訳(メタデータ) (2022-02-17T09:55:21Z) - Task-Specific Normalization for Continual Learning of Blind Image
Quality Models [105.03239956378465]
視覚的画像品質評価(BIQA)のための簡易かつ効果的な連続学習法を提案する。
このアプローチの重要なステップは、トレーニング済みのディープニューラルネットワーク(DNN)のすべての畳み込みフィルタを凍結して、安定性を明示的に保証することです。
我々は、各新しいIQAデータセット(タスク)に予測ヘッドを割り当て、対応する正規化パラメータをロードして品質スコアを生成する。
最終的な品質推定は、軽量な$K$-meansゲーティング機構で、すべての頭からの予測の重み付け総和によって計算される。
論文 参考訳(メタデータ) (2021-07-28T15:21:01Z) - APQ: Joint Search for Network Architecture, Pruning and Quantization
Policy [49.3037538647714]
本稿では,リソース制約のあるハードウェア上での効率的なディープラーニング推論のためのAPQを提案する。
ニューラルアーキテクチャ、プルーニングポリシー、量子化ポリシーを別々に検索する従来の方法とは異なり、我々はそれらを共同で最適化する。
同じ精度で、APQはMobileNetV2+HAQよりもレイテンシ/エネルギーを2倍/1.3倍削減する。
論文 参考訳(メタデータ) (2020-06-15T16:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。