論文の概要: Quantum NLP models on Natural Language Inference
- arxiv url: http://arxiv.org/abs/2510.15972v1
- Date: Sun, 12 Oct 2025 17:27:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:11.645118
- Title: Quantum NLP models on Natural Language Inference
- Title(参考訳): 自然言語推論に基づく量子NLPモデル
- Authors: Ling Sun, Peter Sullivan, Michael Martin, Yun Zhou,
- Abstract要約: 量子自然言語処理(QNLP)は、セマンティックモデリングに対する新しいアプローチを提供する。
本稿では,自然言語推論(NLI)におけるQNLPモデルの適用について検討する。
文ペアのためのパラメータ化量子回路を構築し、意味的関連性と推論の分類の両方を訓練する。
- 参考スコア(独自算出の注目度): 3.119991939664782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum natural language processing (QNLP) offers a novel approach to semantic modeling by embedding compositional structure directly into quantum circuits. This paper investigates the application of QNLP models to the task of Natural Language Inference (NLI), comparing quantum, hybrid, and classical transformer-based models under a constrained few-shot setting. Using the lambeq library and the DisCoCat framework, we construct parameterized quantum circuits for sentence pairs and train them for both semantic relatedness and inference classification. To assess efficiency, we introduce a novel information-theoretic metric, Information Gain per Parameter (IGPP), which quantifies learning dynamics independent of model size. Our results demonstrate that quantum models achieve performance comparable to classical baselines while operating with dramatically fewer parameters. The Quantum-based models outperform randomly initialized transformers in inference and achieve lower test error on relatedness tasks. Moreover, quantum models exhibit significantly higher per-parameter learning efficiency (up to five orders of magnitude more than classical counterparts), highlighting the promise of QNLP in low-resource, structure-sensitive settings. To address circuit-level isolation and promote parameter sharing, we also propose a novel cluster-based architecture that improves generalization by tying gate parameters to learned word clusters rather than individual tokens.
- Abstract(参考訳): 量子自然言語処理(QNLP)は、構成構造を直接量子回路に埋め込むことによって意味モデリングに新しいアプローチを提供する。
本稿では,QNLPモデルを自然言語推論(NLI)タスクに適用し,量子,ハイブリッド,古典的トランスフォーマーモデルと比較する。
lambeqライブラリとDisCoCatフレームワークを用いて、文ペアのためのパラメータ化量子回路を構築し、意味的関連性および推論分類の両方をトレーニングする。
有効性を評価するため,モデルサイズに依存しない学習力学を定量化する新しい情報理論指標,IGPP(Information Gain per Parameter)を導入する。
その結果、量子モデルは古典的ベースラインに匹敵する性能を達成し、パラメータを劇的に減らした。
量子ベースのモデルは、推論においてランダムに初期化変換器を上回り、関連するタスクにおいて低いテスト誤差を達成する。
さらに、量子モデルはパラメータごとの学習効率(古典的手法よりも最大5桁高い)が著しく高く、低リソースで構造に敏感な設定におけるQNLPの約束を強調している。
また,回路レベルの分離に対処し,パラメータ共有を促進するために,個々のトークンではなく,学習した単語クラスタにゲートパラメータを結び付けることにより,一般化を改善する新しいクラスタベースアーキテクチャを提案する。
関連論文リスト
- Efficient Generation of Parameterised Quantum Circuits from Large Texts [0.3298092151372303]
DisCoCircは、文書全体をパラメータ化された量子回路(PQC)として直接符号化することができる
本稿では,前グループ図のツリー様表現を用いて,大規模テキストを量子回路に変換する手法を提案する。
論文 参考訳(メタデータ) (2025-05-19T14:57:53Z) - Quantum Natural Language Processing: A Comprehensive Review of Models, Methods, and Applications [0.05592394503914488]
量子コンピューティングの原理、アーキテクチャ、計算アプローチに基づいてQNLPモデルを分類することを提案する。
本稿では,この領域の最先端をマッピングすることで,量子が言語にどのように適合するかを調査する。
論文 参考訳(メタデータ) (2025-04-14T06:09:26Z) - Comparative study of the ansätze in quantum language models [12.109572897953413]
量子自然言語処理(QNLP)メソッドとフレームワークは、テキストの分類と生成のために存在する。
我々は、これらのアンスに基づく量子自然言語処理モデルの性能を、テキスト分類タスクの異なるレベルで評価する。
論文 参考訳(メタデータ) (2025-02-28T05:49:38Z) - Quantum Neural Networks in Practice: A Comparative Study with Classical Models from Standard Data Sets to Industrial Images [0.5892638927736115]
本稿では,古典的・古典的ハイブリッド畳み込みニューラルネットワーク(CNN)と,ランダム化された古典的・量子的ニューラルネットワーク(NN)の性能を比較した。
これらのアプローチを,複雑性を増大させる3つのデータセット上で評価する。
クロスデータセット性能解析では、異なる分類タスク間の量子モデルの限られた転送可能性を示した。
論文 参考訳(メタデータ) (2024-11-28T17:13:45Z) - Multi-Scale Feature Fusion Quantum Depthwise Convolutional Neural Networks for Text Classification [3.0079490585515343]
量子畳み込みに基づく新しい量子ニューラルネットワーク(QNN)モデルを提案する。
我々は、パラメータの数を著しく減らし、計算複雑性を下げる量子深度畳み込みを開発する。
また,単語レベルの特徴と文レベルの特徴を統合することで,モデル性能を向上させるマルチスケール機能融合機構を導入する。
論文 参考訳(メタデータ) (2024-05-22T10:19:34Z) - Pre-training Tensor-Train Networks Facilitates Machine Learning with Variational Quantum Circuits [70.97518416003358]
変分量子回路(VQC)は、ノイズの多い中間スケール量子(NISQ)デバイス上での量子機械学習を約束する。
テンソルトレインネットワーク(TTN)はVQC表現と一般化を向上させることができるが、結果として得られるハイブリッドモデルであるTTN-VQCは、Polyak-Lojasiewicz(PL)条件による最適化の課題に直面している。
この課題を軽減するために,プレトレーニングTTNモデルとVQCを組み合わせたPre+TTN-VQCを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing [75.75419308975746]
本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
論文 参考訳(メタデータ) (2022-02-17T09:55:21Z) - Generalization Metrics for Practical Quantum Advantage in Generative
Models [68.8204255655161]
生成モデリングは量子コンピュータにとって広く受け入れられている自然のユースケースである。
我々は,アルゴリズムの一般化性能を計測して,生成モデリングのための実用的な量子優位性を探索する,単純で曖昧な手法を構築した。
シミュレーションの結果、我々の量子にインスパイアされたモデルは、目に見えない、有効なサンプルを生成するのに、最大で68倍の費用がかかります。
論文 参考訳(メタデータ) (2022-01-21T16:35:35Z) - Quantum Machine Learning with SQUID [64.53556573827525]
分類問題に対するハイブリッド量子古典アルゴリズムを探索するオープンソースフレームワークであるScaled QUantum IDentifier (SQUID)を提案する。
本稿では、一般的なMNISTデータセットから標準バイナリ分類問題にSQUIDを使用する例を示す。
論文 参考訳(メタデータ) (2021-04-30T21:34:11Z) - FLIP: A flexible initializer for arbitrarily-sized parametrized quantum
circuits [105.54048699217668]
任意サイズのパラメタライズド量子回路のためのFLexible Initializerを提案する。
FLIPは任意の種類のPQCに適用することができ、初期パラメータの一般的なセットに頼る代わりに、成功したパラメータの構造を学ぶように調整されている。
本稿では, 3つのシナリオにおいてFLIPを用いることの利点を述べる。不毛な高原における問題ファミリ, 最大カット問題インスタンスを解くPQCトレーニング, 1次元フェルミ-ハッバードモデルの基底状態エネルギーを求めるPQCトレーニングである。
論文 参考訳(メタデータ) (2021-03-15T17:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。