論文の概要: Quantum Graph Transformer for NLP Sentiment Classification
- arxiv url: http://arxiv.org/abs/2506.07937v1
- Date: Mon, 09 Jun 2025 16:55:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:11.067863
- Title: Quantum Graph Transformer for NLP Sentiment Classification
- Title(参考訳): NLP感度分類のための量子グラフ変換器
- Authors: Shamminuj Aktar, Andreas Bärtschi, Abdel-Hameed A. Badawy, Stephan Eidenbenz,
- Abstract要約: 本稿では,量子自己保持機構を統合したハイブリッドグラフアーキテクチャであるQuantum Graph Transformer (QGT)を提案する。
QGTは、既存の量子自然言語処理(QNLP)モデルよりも高い精度または同等の精度を達成する。
これらの結果は、グラフベースのQNLP技術が、効率的でスケーラブルな言語理解を促進する可能性を強調している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum machine learning is a promising direction for building more efficient and expressive models, particularly in domains where understanding complex, structured data is critical. We present the Quantum Graph Transformer (QGT), a hybrid graph-based architecture that integrates a quantum self-attention mechanism into the message-passing framework for structured language modeling. The attention mechanism is implemented using parameterized quantum circuits (PQCs), which enable the model to capture rich contextual relationships while significantly reducing the number of trainable parameters compared to classical attention mechanisms. We evaluate QGT on five sentiment classification benchmarks. Experimental results show that QGT consistently achieves higher or comparable accuracy than existing quantum natural language processing (QNLP) models, including both attention-based and non-attention-based approaches. When compared with an equivalent classical graph transformer, QGT yields an average accuracy improvement of 5.42% on real-world datasets and 4.76% on synthetic datasets. Additionally, QGT demonstrates improved sample efficiency, requiring nearly 50% fewer labeled samples to reach comparable performance on the Yelp dataset. These results highlight the potential of graph-based QNLP techniques for advancing efficient and scalable language understanding.
- Abstract(参考訳): 量子機械学習は、特に複雑で構造化されたデータを理解することが重要である領域において、より効率的で表現力のあるモデルを構築するための有望な方向である。
本稿では、構造化言語モデリングのためのメッセージパスフレームワークに量子自己保持機構を統合するハイブリッドグラフベースのアーキテクチャであるQuantum Graph Transformer(QGT)を提案する。
このアテンション機構はパラメータ化量子回路(PQC)を用いて実装されており、従来のアテンション機構と比較してトレーニング可能なパラメータの数を著しく減らしながら、リッチなコンテキスト関係をキャプチャすることができる。
5つの感情分類ベンチマークでQGTを評価する。
実験の結果、QGTは既存の量子自然言語処理(QNLP)モデルよりも、注意に基づくアプローチと非注意に基づくアプローチの両方を含む、常に高い精度または同等の精度を達成することが示された。
等価な古典グラフ変換器と比較すると、QGTは実世界のデータセットでは5.42%、合成データセットでは4.76%の平均精度が向上する。
さらに、QGTはサンプル効率の改善を示し、Yelpデータセットで同等のパフォーマンスに到達するには、ラベル付きサンプルを50%近く削減する必要がある。
これらの結果は、グラフベースのQNLP技術が、効率的でスケーラブルな言語理解を促進する可能性を強調している。
関連論文リスト
- An Efficient Quantum Classifier Based on Hamiltonian Representations [50.467930253994155]
量子機械学習(QML)は、量子コンピューティングの利点をデータ駆動タスクに移行しようとする分野である。
入力をパウリ弦の有限集合にマッピングすることで、データ符号化に伴うコストを回避できる効率的な手法を提案する。
我々は、古典的および量子モデルに対して、テキストおよび画像分類タスクに対する我々のアプローチを評価する。
論文 参考訳(メタデータ) (2025-04-13T11:49:53Z) - Learning Efficient Positional Encodings with Graph Neural Networks [109.8653020407373]
グラフのための学習可能なPEの新しいフレームワークであるPEARLを紹介する。
PEARL は線形複雑性を持つ固有ベクトルの同変関数を近似し、その安定性と高表現力を厳密に確立する。
解析の結果、PEARLは線形複雑度を持つ固有ベクトルの同変関数を近似し、その安定性と高表現能を厳密に確立することを示した。
論文 参考訳(メタデータ) (2025-02-03T07:28:53Z) - Quantum-Enhanced Attention Mechanism in NLP: A Hybrid Classical-Quantum Approach [0.0]
トランスフォーマーベースのモデルは、テキスト分類や機械翻訳といった自然言語処理(NLP)タスクにおいて顕著な成果を上げている。
本研究は,これらの制約に対処するために,量子強調アテンション機構を統合したハイブリッド量子古典変換器モデルを提案する。
論文 参考訳(メタデータ) (2025-01-26T18:29:06Z) - GQWformer: A Quantum-based Transformer for Graph Representation Learning [15.97445757658235]
本稿では, 構造符号化に量子技術を活用することにより, グラフ帰納バイアスを自己認識機構に統合する手法を提案する。
グラフ量子ウォーク変換器(GQWformer, Graph Quantum Walk Transformer)は, 属性グラフ上の量子ウォークを利用してノード量子状態を生成するGNNフレームワークである。
これらの量子状態は、豊富な構造特性をカプセル化し、変圧器の誘導バイアスとして機能し、より有意義な注意スコアの生成を可能にする。
論文 参考訳(メタデータ) (2024-12-03T09:03:04Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Strategic Data Re-Uploads: A Pathway to Improved Quantum Classification Data Re-Uploading Strategies for Improved Quantum Classifier Performance [0.0]
古典情報を複数回量子状態に再アップロードすると、量子分類器の精度が向上する。
線形分類パターン(LCP)と非線形分類パターン(NLCP)の2つの分類パターンに対するアプローチを実証する。
論文 参考訳(メタデータ) (2024-05-15T14:28:00Z) - Graph Neural Networks for Parameterized Quantum Circuits Expressibility Estimation [5.074765131677166]
本稿では,グラフニューラルネットワーク(GNN)を用いた量子回路の表現可能性推定手法を提案する。
我々は、ノイズのないIBM QASMシミュレータから25,000のサンプルと、3つのノイズの多い量子バックエンドから12,000のサンプルからなるデータセットを用いて、GNNモデルの予測能力を実証した。
論文 参考訳(メタデータ) (2024-05-13T18:26:55Z) - Predicting Expressibility of Parameterized Quantum Circuits using Graph
Neural Network [5.444441239596186]
量子回路(PQC)の表現性を予測するためのグラフニューラルネットワーク(GNN)に基づく新しい手法を提案する。
グラフに基づくPQC表現を活用することで、GNNベースのモデルは、回路パラメータと結果の表現性の間の複雑な関係をキャプチャする。
4千個のランダムPQCデータセットとIBM Qiskitのハードウェア効率の良いアンサッツセットの実験評価により、我々のアプローチの優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-13T14:08:01Z) - Pre-training Tensor-Train Networks Facilitates Machine Learning with Variational Quantum Circuits [70.97518416003358]
変分量子回路(VQC)は、ノイズの多い中間スケール量子(NISQ)デバイス上での量子機械学習を約束する。
テンソルトレインネットワーク(TTN)はVQC表現と一般化を向上させることができるが、結果として得られるハイブリッドモデルであるTTN-VQCは、Polyak-Lojasiewicz(PL)条件による最適化の課題に直面している。
この課題を軽減するために,プレトレーニングTTNモデルとVQCを組み合わせたPre+TTN-VQCを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - Improving Convergence for Quantum Variational Classifiers using Weight
Re-Mapping [60.086820254217336]
近年、量子機械学習は変分量子回路(VQC)の利用が大幅に増加した。
重みを2pi$の間隔に不明瞭にマッピングするために、VQCの重み再マッピングを導入する。
修正されていないウェイトを用いて、Wineデータセットの重量再マッピングにより、テスト精度が10%向上したことを実証した。
論文 参考訳(メタデータ) (2022-12-22T13:23:19Z) - When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing [75.75419308975746]
本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
論文 参考訳(メタデータ) (2022-02-17T09:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。