論文の概要: Multilingual Machine Translation with Quantum Encoder Decoder Attention-based Convolutional Variational Circuits
- arxiv url: http://arxiv.org/abs/2505.09407v1
- Date: Wed, 14 May 2025 14:04:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.483125
- Title: Multilingual Machine Translation with Quantum Encoder Decoder Attention-based Convolutional Variational Circuits
- Title(参考訳): 量子エンコーダデコーダアテンションに基づく畳み込み変分回路を用いた多言語機械翻訳
- Authors: Subrit Dikshit, Ritu Tiwari, Priyank Jain,
- Abstract要約: Google TranslateやMicrosoft Translatorのようなクラウドベースの多言語翻訳サービスは、最先端の翻訳機能を実現する。
QEDACVCは量子コンピューティングハードウェアをシミュレートし、実行する量子エンコーダデコーダアーキテクチャを導入している。
QEDACVCは、多言語翻訳のためのOPUSデータセット、英語、フランス語、ドイツ語、ヒンディー語コーパスのトレーニングで82%の精度を達成した。
- 参考スコア(独自算出の注目度): 1.2289361708127877
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cloud-based multilingual translation services like Google Translate and Microsoft Translator achieve state-of-the-art translation capabilities. These services inherently use large multilingual language models such as GRU, LSTM, BERT, GPT, T5, or similar encoder-decoder architectures with attention mechanisms as the backbone. Also, new age natural language systems, for instance ChatGPT and DeepSeek, have established huge potential in multiple tasks in natural language processing. At the same time, they also possess outstanding multilingual translation capabilities. However, these models use the classical computing realm as a backend. QEDACVC (Quantum Encoder Decoder Attention-based Convolutional Variational Circuits) is an alternate solution that explores the quantum computing realm instead of the classical computing realm to study and demonstrate multilingual machine translation. QEDACVC introduces the quantum encoder-decoder architecture that simulates and runs on quantum computing hardware via quantum convolution, quantum pooling, quantum variational circuit, and quantum attention as software alterations. QEDACVC achieves an Accuracy of 82% when trained on the OPUS dataset for English, French, German, and Hindi corpora for multilingual translations.
- Abstract(参考訳): Google TranslateやMicrosoft Translatorのようなクラウドベースの多言語翻訳サービスは、最先端の翻訳機能を実現する。
これらのサービスは本質的に、GRU、LSTM、BERT、GPT、T5などの多言語言語モデルや、バックボーンとして注目機構を備えたエンコーダ・デコーダアーキテクチャを使用する。
また、ChatGPTやDeepSeekといった新世代の自然言語システムは、自然言語処理における複数のタスクにおいて大きな可能性を確立している。
同時に、優れた多言語翻訳能力も備えている。
しかし、これらのモデルは古典的な計算領域をバックエンドとして利用する。
QEDACVC (Quantum Encoder Decoder Attention-based Convolutional Variational Circuits) は、古典的な計算領域の代わりに量子コンピューティング領域を探索し、多言語機械翻訳を研究、実証する代替ソリューションである。
QEDACVCは、量子畳み込み、量子プール、量子変動回路、および量子注意をソフトウェア変更として、量子コンピューティングハードウェア上でシミュレートし、実行する量子エンコーダ・デコーダアーキテクチャを導入している。
QEDACVCは、多言語翻訳のためのOPUSデータセット、英語、フランス語、ドイツ語、ヒンディー語コーパスのトレーニングで82%の精度を達成した。
関連論文リスト
- Empirical Power of Quantum Encoding Methods for Binary Classification [0.2118773996967412]
我々は、様々な機械学習メトリクスに対する符号化スキームとその効果に焦点を当てる。
具体的には、実世界の複数のデータセットの量子符号化戦略の違いを示すために、実世界のデータ符号化に焦点を当てる。
論文 参考訳(メタデータ) (2024-08-23T14:34:57Z) - $Classi|Q\rangle$ Towards a Translation Framework To Bridge The Classical-Quantum Programming Gap [5.177070928114865]
$Classi|Qrangle$は、クラシックコンピューティングと量子コンピューティングを橋渡しするフレームワークである。
PythonやC++のようなハイレベルなプログラミング言語を低レベルな言語、例えばQuantum Assemblyに翻訳する。
論文 参考訳(メタデータ) (2024-06-10T19:50:16Z) - TeD-Q: a tensor network enhanced distributed hybrid quantum machine learning framework [48.491303218786044]
TeD-Qは、量子機械学習のためのオープンソースのソフトウェアフレームワークである。
古典的な機械学習ライブラリと量子シミュレータをシームレスに統合する。
量子回路とトレーニングの進捗をリアルタイムで視覚化できるグラフィカルモードを提供する。
論文 参考訳(メタデータ) (2023-01-13T09:35:05Z) - Multilingual Neural Machine Translation with Deep Encoder and Multiple
Shallow Decoders [77.2101943305862]
本稿では,複数の浅層デコーダ(DEMSD)を持つディープエンコーダを提案する。
2層デコーダを用いたDEMDモデルは、翻訳品質の低下のない標準トランスモデルと比較して平均1.8倍の高速化が得られる。
論文 参考訳(メタデータ) (2022-06-05T01:15:04Z) - A Programming Language For Quantum Oracle Construction [0.0]
HODLは、量子コンピュータで使用するCスタイルのプログラミング言語である。
コンパイラはHODLで書かれた高レベルコードを変換し、OpenQASMに変換する。
論文 参考訳(メタデータ) (2021-10-24T16:53:16Z) - DeltaLM: Encoder-Decoder Pre-training for Language Generation and
Translation by Augmenting Pretrained Multilingual Encoders [92.90543340071007]
本稿では,事前訓練された多言語エンコーダデコーダモデルDeltaLMを紹介する。
具体的には,事前学習した多言語エンコーダをデコーダで拡張し,自己指導型で事前学習する。
実験により、DeltaLMは自然言語生成と翻訳の両方のタスクにおいて、様々な強力なベースラインを上回ります。
論文 参考訳(メタデータ) (2021-06-25T16:12:10Z) - A MLIR Dialect for Quantum Assembly Languages [78.8942067357231]
量子コンピューティングにおけるMLIR(Multi-Level Intermediate Representation)の有用性を実証する。
我々は、共通量子集合言語の表現とコンパイルを可能にする新しい量子方言でMLIRを拡張した。
我々はQIR量子ランタイムAPIのqcor対応実装を活用して、再ターゲット可能な(量子ハードウェアに依存しない)コンパイラワークフローを実現する。
論文 参考訳(メタデータ) (2021-01-27T13:00:39Z) - Dual-decoder Transformer for Joint Automatic Speech Recognition and
Multilingual Speech Translation [71.54816893482457]
自動音声認識(ASR)と多言語音声翻訳(ST)を共同で行う新しいモデルアーキテクチャであるデュアルデコーダトランスフォーマを導入する。
我々のモデルはオリジナルのTransformerアーキテクチャに基づいているが、2つのデコーダで構成されており、それぞれが1つのタスク(ASRまたはST)を担っている。
論文 参考訳(メタデータ) (2020-11-02T04:59:50Z) - Bi-Decoder Augmented Network for Neural Machine Translation [108.3931242633331]
本稿では,ニューラルマシン翻訳タスクのためのBi-Decoder Augmented Network (BiDAN)を提案する。
各デコーダは入力されたテキストの表現を対応する言語に変換するため、2つの目的語と共同でトレーニングすることで、共有エンコーダは言語に依存しない意味空間を生成することができる。
論文 参考訳(メタデータ) (2020-01-14T02:05:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。