論文の概要: Application of Quantum Tensor Networks for Protein Classification
- arxiv url: http://arxiv.org/abs/2403.06890v1
- Date: Mon, 11 Mar 2024 16:47:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 18:02:45.760164
- Title: Application of Quantum Tensor Networks for Protein Classification
- Title(参考訳): 量子テンソルネットワークのタンパク質分類への応用
- Authors: Debarshi Kundu, Archisman Ghosh, Srinivasan Ekambaram, Jian Wang,
Nikolay Dokholyan, Swaroop Ghosh
- Abstract要約: タンパク質配列は自然言語処理における文として考えることができることを示す。
我々は、その細胞内位置に基づいてタンパク質を分類する。
量子ネットワーク(QTN)がタンパク質配列の複雑さと多様性を効果的に処理できることを実証する。
- 参考スコア(独自算出の注目度): 3.5300092061072523
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We show that protein sequences can be thought of as sentences in natural
language processing and can be parsed using the existing Quantum Natural
Language framework into parameterized quantum circuits of reasonable qubits,
which can be trained to solve various protein-related machine-learning
problems. We classify proteins based on their subcellular locations, a pivotal
task in bioinformatics that is key to understanding biological processes and
disease mechanisms. Leveraging the quantum-enhanced processing capabilities, we
demonstrate that Quantum Tensor Networks (QTN) can effectively handle the
complexity and diversity of protein sequences. We present a detailed
methodology that adapts QTN architectures to the nuanced requirements of
protein data, supported by comprehensive experimental results. We demonstrate
two distinct QTNs, inspired by classical recurrent neural networks (RNN) and
convolutional neural networks (CNN), to solve the binary classification task
mentioned above. Our top-performing quantum model has achieved a 94% accuracy
rate, which is comparable to the performance of a classical model that uses the
ESM2 protein language model embeddings. It's noteworthy that the ESM2 model is
extremely large, containing 8 million parameters in its smallest configuration,
whereas our best quantum model requires only around 800 parameters. We
demonstrate that these hybrid models exhibit promising performance, showcasing
their potential to compete with classical models of similar complexity.
- Abstract(参考訳): タンパク質配列は自然言語処理において文と見なすことができ、既存の量子自然言語フレームワークを用いて合理的な量子ビットのパラメータ化された量子回路に解析できることを示した。
我々は、生体情報学における重要な課題である細胞内位置に基づいてタンパク質を分類し、生物学的プロセスや疾患のメカニズムを理解するのに重要である。
量子テンソルネットワーク(Quantum Tensor Networks, QTN)は, タンパク質配列の複雑さと多様性を効果的に扱えることを示す。
本稿では,QTNアーキテクチャをタンパク質データに不規則な要求に適応させる詳細な方法論を提案する。
本稿では、従来のリカレントニューラルネットワーク(RNN)と畳み込みニューラルネットワーク(CNN)にインスパイアされた2つの異なるQTNを示し、上記の二項分類課題を解決する。
我々の最高性能量子モデルは、ESM2タンパク質言語モデル埋め込みを用いた古典モデルの性能に匹敵する94%の精度を達成した。
esm2モデルは非常に大きく、最小構成で800万のパラメータが含まれていますが、最良の量子モデルは800のパラメータしか必要としません。
これらのハイブリッドモデルが有望な性能を示すことを実証し,同様の複雑性を持つ古典モデルと競合する可能性を示した。
関連論文リスト
- Fourier Neural Operators for Learning Dynamics in Quantum Spin Systems [77.88054335119074]
ランダム量子スピン系の進化をモデル化するためにFNOを用いる。
量子波動関数全体の2n$の代わりに、コンパクトなハミルトン観測可能集合にFNOを適用する。
論文 参考訳(メタデータ) (2024-09-05T07:18:09Z) - Training-efficient density quantum machine learning [2.918930150557355]
量子機械学習は強力でフレキシブルで効率的にトレーニング可能なモデルを必要とする。
トレーニング可能なユニタリの集合にランダム化を組み込んだ学習モデルである密度量子ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-30T16:40:28Z) - Multi-Scale Feature Fusion Quantum Depthwise Convolutional Neural Networks for Text Classification [3.0079490585515343]
量子畳み込みに基づく新しい量子ニューラルネットワーク(QNN)モデルを提案する。
我々は、パラメータの数を著しく減らし、計算複雑性を下げる量子深度畳み込みを開発する。
また,単語レベルの特徴と文レベルの特徴を統合することで,モデル性能を向上させるマルチスケール機能融合機構を導入する。
論文 参考訳(メタデータ) (2024-05-22T10:19:34Z) - Quantum machine learning for image classification [39.58317527488534]
本研究では、量子力学の原理を有効計算に活用する2つの量子機械学習モデルを紹介する。
我々の最初のモデルは、並列量子回路を持つハイブリッド量子ニューラルネットワークであり、ノイズの多い中間スケール量子時代においても計算の実行を可能にする。
第2のモデルは、クオン進化層を持つハイブリッド量子ニューラルネットワークを導入し、畳み込みプロセスによる画像の解像度を低下させる。
論文 参考訳(メタデータ) (2023-04-18T18:23:20Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - Towards Neural Variational Monte Carlo That Scales Linearly with System
Size [67.09349921751341]
量子多体問題(Quantum many-body problem)は、例えば高温超伝導体のようなエキゾチックな量子現象をデミストする中心である。
量子状態を表すニューラルネットワーク(NN)と変分モンテカルロ(VMC)アルゴリズムの組み合わせは、そのような問題を解決する上で有望な方法であることが示されている。
ベクトル量子化技術を用いて,VMCアルゴリズムの局所エネルギー計算における冗長性を利用するNNアーキテクチャVector-Quantized Neural Quantum States (VQ-NQS)を提案する。
論文 参考訳(メタデータ) (2022-12-21T19:00:04Z) - Quantum Self-Attention Neural Networks for Text Classification [8.975913540662441]
量子自己アテンションニューラルネットワーク(QSANN)と呼ばれる,新しいシンプルなネットワークアーキテクチャを提案する。
本稿では,量子ニューラルネットワークに自己アテンション機構を導入し,ガウス射影量子自己アテンションを自己アテンションの有感な量子バージョンとして活用する。
提案手法は低レベル量子雑音に対するロバスト性を示し,量子ニューラルネットワークアーキテクチャに対するレジリエンスを示す。
論文 参考訳(メタデータ) (2022-05-11T16:50:46Z) - When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing [75.75419308975746]
本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
論文 参考訳(メタデータ) (2022-02-17T09:55:21Z) - Generalization Metrics for Practical Quantum Advantage in Generative
Models [68.8204255655161]
生成モデリングは量子コンピュータにとって広く受け入れられている自然のユースケースである。
我々は,アルゴリズムの一般化性能を計測して,生成モデリングのための実用的な量子優位性を探索する,単純で曖昧な手法を構築した。
シミュレーションの結果、我々の量子にインスパイアされたモデルは、目に見えない、有効なサンプルを生成するのに、最大で68倍の費用がかかります。
論文 参考訳(メタデータ) (2022-01-21T16:35:35Z) - Mixed Precision Low-bit Quantization of Neural Network Language Models
for Speech Recognition [67.95996816744251]
長期間のメモリリカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端言語モデル(LM)は、実用アプリケーションではますます複雑で高価なものになりつつある。
現在の量子化法は、均一な精度に基づいており、量子化誤差に対するLMの異なる部分での様々な性能感度を考慮できない。
本稿では,新しい混合精度ニューラルネットワークLM量子化法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:24:02Z) - Recurrent Quantum Neural Networks [7.6146285961466]
リカレントニューラルネットワークは、機械学習における多くのシーケンス対シーケンスモデルの基盤となっている。
非自明なタスクに対して実証可能な性能を持つ量子リカレントニューラルネットワーク(QRNN)を構築する。
我々はQRNNをMNIST分類で評価し、QRNNに各画像ピクセルを供給し、また、最新のデータ拡張を前処理のステップとして利用する。
論文 参考訳(メタデータ) (2020-06-25T17:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。