論文の概要: A Hybrid Classical-Quantum Fine Tuned BERT for Text Classification
- arxiv url: http://arxiv.org/abs/2511.17677v1
- Date: Fri, 21 Nov 2025 07:17:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.356246
- Title: A Hybrid Classical-Quantum Fine Tuned BERT for Text Classification
- Title(参考訳): テキスト分類のためのハイブリッド古典量子微調整BERT
- Authors: Abu Kaisar Mohammad Masum, Naveed Mahmud, M. Hassan Najafi, Sercan Aygun,
- Abstract要約: テキスト分類のための古典的なBERTモデルとn量子ビット量子回路を統合するハイブリッド手法を提案する。
実験の結果,提案したハイブリッドは,古典的ベースラインと競合するモデル性能を達成し,場合によっては性能が向上することが示された。
全体として、ハイブリッドモデルは、テキスト分類タスクのパフォーマンス向上を実現する上で、量子コンピューティングの約束を強調している。
- 参考スコア(独自算出の注目度): 1.7231028570385691
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fine-tuning BERT for text classification can be computationally challenging and requires careful hyper-parameter tuning. Recent studies have highlighted the potential of quantum algorithms to outperform conventional methods in machine learning and text classification tasks. In this work, we propose a hybrid approach that integrates an n-qubit quantum circuit with a classical BERT model for text classification. We evaluate the performance of the fine-tuned classical-quantum BERT and demonstrate its feasibility as well as its potential in advancing this research area. Our experimental results show that the proposed hybrid model achieves performance that is competitive with, and in some cases better than, the classical baselines on standard benchmark datasets. Furthermore, our approach demonstrates the adaptability of classical-quantum models for fine-tuning pre-trained models across diverse datasets. Overall, the hybrid model highlights the promise of quantum computing in achieving improved performance for text classification tasks.
- Abstract(参考訳): テキスト分類のための微調整BERTは、計算的に困難であり、注意深いハイパーパラメータチューニングを必要とする。
近年の研究では、機械学習やテキスト分類タスクにおいて、従来の手法より優れている量子アルゴリズムの可能性を強調している。
本研究では,n量子ビット量子回路と古典的なBERTモデルを統合するハイブリッド手法を提案する。
本研究は,超微調整された古典量子BERTの性能を評価し,その実現可能性と,研究領域を前進させる可能性を示す。
実験結果から,提案したハイブリッドモデルにより,標準ベンチマークデータセットの古典的ベースラインよりも競争力のある性能が得られることが示された。
さらに,本手法は,様々なデータセットにまたがる微調整事前学習モデルに対する古典量子モデルの適応性を示す。
全体として、ハイブリッドモデルは、テキスト分類タスクのパフォーマンス向上を実現する上で、量子コンピューティングの約束を強調している。
関連論文リスト
- Hybrid Tree Tensor Networks for quantum simulation [0.0]
ハイブリッドツリーネットワーク(hTTN)を用いた基底状態最適化のための新しいアルゴリズムを提案する。
我々は、hTTNsが古典的部分における等しい結合次元を持つ古典的等価性を改善することができることを示した。
論文 参考訳(メタデータ) (2024-04-08T18:00:00Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing [75.75419308975746]
本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
論文 参考訳(メタデータ) (2022-02-17T09:55:21Z) - Generalization Metrics for Practical Quantum Advantage in Generative
Models [68.8204255655161]
生成モデリングは量子コンピュータにとって広く受け入れられている自然のユースケースである。
我々は,アルゴリズムの一般化性能を計測して,生成モデリングのための実用的な量子優位性を探索する,単純で曖昧な手法を構築した。
シミュレーションの結果、我々の量子にインスパイアされたモデルは、目に見えない、有効なサンプルを生成するのに、最大で68倍の費用がかかります。
論文 参考訳(メタデータ) (2022-01-21T16:35:35Z) - Conformer-based Hybrid ASR System for Switchboard Dataset [99.88988282353206]
本稿では,競争力のあるコンバータベースハイブリッドモデルトレーニングレシピを提示し,評価する。
本研究は,単語誤り率の向上と学習速度向上のための異なる訓練側面と手法について検討する。
我々はSwitchboard 300hデータセットで実験を行い、コンバータベースのハイブリッドモデルは競争力のある結果を得る。
論文 参考訳(メタデータ) (2021-11-05T12:03:18Z) - Binary classifiers for noisy datasets: a comparative study of existing
quantum machine learning frameworks and some new approaches [0.0]
バイナリ分類を改善するためにQuantum Machine Learningフレームワークを適用した。
ノイズの多いデータセットは 財務的なデータセットの中にあります
新しいモデルでは、データセットの非対称ノイズに対する学習特性が向上する。
論文 参考訳(メタデータ) (2021-11-05T10:29:05Z) - Quantum Machine Learning with SQUID [64.53556573827525]
分類問題に対するハイブリッド量子古典アルゴリズムを探索するオープンソースフレームワークであるScaled QUantum IDentifier (SQUID)を提案する。
本稿では、一般的なMNISTデータセットから標準バイナリ分類問題にSQUIDを使用する例を示す。
論文 参考訳(メタデータ) (2021-04-30T21:34:11Z) - Document Ranking with a Pretrained Sequence-to-Sequence Model [56.44269917346376]
関連ラベルを「ターゲット語」として生成するためにシーケンス・ツー・シーケンス・モデルをどのように訓練するかを示す。
提案手法は,データポーラ方式におけるエンコーダのみのモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-03-14T22:29:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。