論文の概要: Scalable and interpretable quantum natural language processing: an implementation on trapped ions
- arxiv url: http://arxiv.org/abs/2409.08777v1
- Date: Fri, 13 Sep 2024 12:36:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 16:39:02.422696
- Title: Scalable and interpretable quantum natural language processing: an implementation on trapped ions
- Title(参考訳): スケーラブルで解釈可能な量子自然言語処理--イオントラップの実装
- Authors: Tiffany Duneau, Saskia Bruhn, Gabriel Matos, Tuomas Laakkonen, Katerina Saiti, Anna Pearson, Konstantinos Meichanetzidis, Bob Coecke,
- Abstract要約: 本稿では,テキストレベルの量子自然言語処理の実装について述べる。
QDisCoCircモデルに焦点をあて、AIの解釈可能なレンダリングに対する構成的アプローチを基盤としています。
我々はQuantinuumのH1-1トラップイオン量子プロセッサの実験を行った。
- 参考スコア(独自算出の注目度): 1.0037949839020768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the first implementation of text-level quantum natural language processing, a field where quantum computing and AI have found a fruitful intersection. We focus on the QDisCoCirc model, which is underpinned by a compositional approach to rendering AI interpretable: the behaviour of the whole can be understood in terms of the behaviour of parts, and the way they are put together. Interpretability is crucial for understanding the unwanted behaviours of AI. By leveraging the compositional structure in the model's architecture, we introduce a novel setup which enables 'compositional generalisation': we classically train components which are then composed to generate larger test instances, the evaluation of which asymptotically requires a quantum computer. Another key advantage of our approach is that it bypasses the trainability challenges arising in quantum machine learning. The main task that we consider is the model-native task of question-answering, and we handcraft toy scale data that serves as a proving ground. We demonstrate an experiment on Quantinuum's H1-1 trapped-ion quantum processor, which constitutes the first proof of concept implementation of scalable compositional QNLP. We also provide resource estimates for classically simulating the model. The compositional structure allows us to inspect and interpret the word embeddings the model learns for each word, as well as the way in which they interact. This improves our understanding of how it tackles the question-answering task. As an initial comparison with classical baselines, we considered transformer and LSTM models, as well as GPT-4, none of which succeeded at compositional generalisation.
- Abstract(参考訳): 我々は、量子コンピューティングとAIが実りある交点を発見した分野である、テキストレベルの量子自然言語処理の最初の実装を提示する。
QDisCoCircモデルは、AIを解釈可能な形でレンダリングするための構成的アプローチによって支えられている: 全体の振る舞いは、部品の振る舞いとそれらがどのように組み立てられるかという観点で理解することができる。
解釈可能性は、AIの望ましくない振る舞いを理解するために不可欠である。
モデルアーキテクチャにおける構成構造を活用することにより、「合成一般化」を可能にする新しいセットアップを導入する: 古典的には、より大きなテストインスタンスを生成するために構成されるコンポーネントを訓練し、漸近的に量子コンピュータを必要とする評価を行う。
このアプローチのもうひとつの大きな利点は、量子機械学習で発生するトレーサビリティの課題を回避できることです。
私たちが考える主な課題は、質問応答のモデルネイティブなタスクであり、実験場として機能する手作りおもちゃのスケールデータである。
我々は、スケーラブルな合成QNLPの概念実装の第一の証明となるQuantinuumのH1-1トラップイオン量子プロセッサについて実験を行った。
また、モデルを古典的にシミュレートするためのリソース推定も提供する。
構成構造により、モデルが各単語について学習する単語を検査し、解釈することができる。
これにより、質問応答タスクへの対処方法の理解が向上します。
古典的ベースラインとの最初の比較として,変換器モデルとLSTMモデル,およびGPT-4を検討したが,いずれのモデルも合成の一般化には成功しなかった。
関連論文リスト
- Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Quantum Algorithms for Compositional Text Processing [1.3654846342364308]
本稿では、最近提案された自然言語用DisCoCircフレームワークに注目し、量子適応QDisCoCircを提案する。
これはAI解釈可能なレンダリングに対する構成的アプローチによって動機付けられている。
テキスト類似性のモデルネイティブな原始演算に対しては、フォールトトレラントな量子コンピュータのための量子アルゴリズムを導出する。
論文 参考訳(メタデータ) (2024-08-12T11:21:40Z) - Sequence Processing with Quantum Tensor Networks [1.534667887016089]
本稿では,解釈可能性と資源圧縮を動機としたシーケンス処理のための複雑なテンソルネットワークモデルを提案する。
本研究では,自然言語とバイオインフォマティクスに関連する配列のバイナリ分類の課題について実験的に検討した。
また,QuantinuumのH2-1トラップイオン量子プロセッサの実装を実証し,短期量子デバイス上での効率的なシーケンス処理の可能性を示した。
論文 参考訳(メタデータ) (2023-08-15T16:33:39Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Tensor Networks or Decision Diagrams? Guidelines for Classical Quantum
Circuit Simulation [65.93830818469833]
テンソルネットワークと決定図は、異なる視点、用語、背景を念頭に、独立して開発されている。
これらの手法が古典的量子回路シミュレーションにどのようにアプローチするかを考察し、最も適用可能な抽象化レベルに関してそれらの相似性を考察する。
量子回路シミュレーションにおいて,テンソルネットワークの使い勝手の向上と決定図の使い勝手の向上に関するガイドラインを提供する。
論文 参考訳(メタデータ) (2023-02-13T19:00:00Z) - Category Theory for Quantum Natural Language Processing [0.0]
この論文は、計算言語学と量子力学の類似に基づく量子自然言語処理(QNLP)モデルを導入する。
テキストと文の文法構造は、絡み合い構造が量子系の状態を接続するのと同じように、単語の意味を接続する。
この抽象的なアナロジーを具体的なアルゴリズムに変換し、文法構造をパラメータ化量子回路のアーキテクチャに変換する。
次に、ハイブリッドな古典量子アルゴリズムを用いて、データ駆動タスクにおける文の意味を回路評価によって計算できるようにモデルを訓練する。
論文 参考訳(メタデータ) (2022-12-13T14:38:57Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Generalization Metrics for Practical Quantum Advantage in Generative
Models [68.8204255655161]
生成モデリングは量子コンピュータにとって広く受け入れられている自然のユースケースである。
我々は,アルゴリズムの一般化性能を計測して,生成モデリングのための実用的な量子優位性を探索する,単純で曖昧な手法を構築した。
シミュレーションの結果、我々の量子にインスパイアされたモデルは、目に見えない、有効なサンプルを生成するのに、最大で68倍の費用がかかります。
論文 参考訳(メタデータ) (2022-01-21T16:35:35Z) - Inducing Transformer's Compositional Generalization Ability via
Auxiliary Sequence Prediction Tasks [86.10875837475783]
体系的な構成性は人間の言語において必須のメカニズムであり、既知の部品の組換えによって新しい表現を作り出すことができる。
既存のニューラルモデルには、記号構造を学習する基本的な能力がないことが示されている。
本稿では,関数の進行と引数のセマンティクスを追跡する2つの補助シーケンス予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-30T16:41:19Z) - QNLP in Practice: Running Compositional Models of Meaning on a Quantum
Computer [0.7194733565949804]
本研究では,NISQ(Noisy Intermediate-Scale Quantum)コンピュータ上で行った最初のNLP実験について報告する。
我々は、量子回路への自然なマッピングを持つ文の表現を作成する。
我々は、量子ハードウェア上で単純な文分類タスクを解くNLPモデルをうまく訓練する。
論文 参考訳(メタデータ) (2021-02-25T13:37:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。