論文の概要: Quantum Dimension Reduction of Hidden Markov Models
- arxiv url: http://arxiv.org/abs/2601.16126v1
- Date: Thu, 22 Jan 2026 17:27:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.669629
- Title: Quantum Dimension Reduction of Hidden Markov Models
- Title(参考訳): 隠れマルコフモデルの量子次元減少
- Authors: Rishi Sundar, Thomas Elliott,
- Abstract要約: 本稿では,有限なエルゴディックHMMを圧縮可能なパイプラインを提案する。
本手法は,単純な玩具モデルと,データから学習した音声由来のHMMの両方で実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hidden Markov models (HMMs) are ubiquitous in time-series modelling, with applications ranging from chemical reaction modelling to speech recognition. These HMMs are often large, with high-dimensional memories. A recently-proposed application of quantum technologies is to execute quantum analogues of HMMs. Such quantum HMMs (QHMMs) are strictly more expressive than their classical counterparts, enabling the construction of more parsimonious models of stochastic processes. However, state-of-the-art techniques for QHMM compression, based on tensor networks, are only applicable for a restricted subset of HMMs, where the transitions are deterministic. In this work we introduce a pipeline by which \emph{any} finite, ergodic HMM can be compressed in this manner, providing a route for effective quantum dimension reduction of general HMMs. We demonstrate the method on both a simple toy model, and on a speech-derived HMM trained from data, obtaining favourable memory--accuracy trade-offs compared to classical compression approaches.
- Abstract(参考訳): 隠れマルコフモデル(HMM)は、化学反応モデリングから音声認識に至るまで、時系列モデリングにおいてユビキタスである。
これらのHMMは、しばしば大きく、高次元記憶を持つ。
最近提案された量子技術の応用は、HMMの量子アナログを実行することである。
このような量子HMM(QHMM)は古典的手法よりも厳密に表現され、確率過程のより同相なモデルの構築を可能にする。
しかし、テンソルネットワークに基づくQHMM圧縮の最先端技術は、遷移が決定論的であるHMMの制限されたサブセットにのみ適用可能である。
本研究では,この方法でエルゴードHMMを圧縮できるパイプラインを導入し,一般HMMの量子次元を効果的に削減するためのルートを提供する。
本手法は,従来の圧縮手法と比較して,簡便な玩具モデルと,データから訓練した音声由来のHMMの両方で,良好なメモリ精度のトレードオフが得られることを示す。
関連論文リスト
- A new quantum machine learning algorithm: split hidden quantum Markov model inspired by quantum conditional master equation [14.262911696419934]
隠れ量子マルコフプロセスを実装するための分割HQMM(SHQMM)を提案する。
実験結果から,本モデルはアプリケーションの範囲やロバスト性において,従来のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-07-17T16:55:26Z) - Hard-normal Example-aware Template Mutual Matching for Industrial Anomaly Detection [78.734927709231]
異常検出器は、クエリー画像の未知の欠陥を検出し、ローカライズするために工業製造で広く使われている。
これらの検出器は異常のないサンプルで訓練され、ほとんどの通常のサンプルと区別された異常を成功させた。
しかし、ハードノーマルな例は、ほとんどの通常のサンプルから遠く離れており、しばしば既存の方法によって異常と誤認される。
論文 参考訳(メタデータ) (2023-03-28T17:54:56Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - Implementation and Learning of Quantum Hidden Markov Models [0.0]
量子チャネルの理論とオープン量子システムを用いて、量子隠れマルコフモデル(QHMM)として知られるジェネレータのクラスの効率的なユニタリ特性を提供する。
我々は、QHMMが、等価な古典的隠れマルコフモデル(HMM)と比較して、プロセス言語のよりコンパクトで表現力豊かな定義であることを証明した。
本稿では,QHMMのための2つの実践的学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-07T17:25:02Z) - Learning Hidden Markov Models When the Locations of Missing Observations
are Unknown [54.40592050737724]
本研究では、未知の観測位置を持つデータからHMMを学習する際の一般的な問題について考察する。
我々は、下層の鎖の構造に関する仮定を一切必要としない再構成アルゴリズムを提供する。
適切な仕様の下では、プロセスのダイナミクスを再構築でき、また、見当たらない観測位置が分かっていたとしても、その有効性を示す。
論文 参考訳(メタデータ) (2022-03-12T22:40:43Z) - Memory compression and thermal efficiency of quantum implementations of
non-deterministic hidden Markov models [0.0]
非決定論的HMMの量子実装を構築するための体系的な規定を提供する。
我々の実装は、この散逸の一部を緩和し、メモリ圧縮の利点を享受できることを示します。
論文 参考訳(メタデータ) (2021-05-13T13:32:25Z) - Error mitigation and quantum-assisted simulation in the error corrected
regime [77.34726150561087]
量子コンピューティングの標準的なアプローチは、古典的にシミュレート可能なフォールトトレラントな演算セットを促進するという考え方に基づいている。
量子回路の古典的準確率シミュレーションをどのように促進するかを示す。
論文 参考訳(メタデータ) (2021-03-12T20:58:41Z) - Scaling Hidden Markov Language Models [118.55908381553056]
この研究は、HMMを言語モデリングデータセットに拡張するという課題を再考する。
本研究では,HMMを大規模状態空間に拡張する手法を提案する。
論文 参考訳(メタデータ) (2020-11-09T18:51:55Z) - Q-GADMM: Quantized Group ADMM for Communication Efficient Decentralized Machine Learning [66.18202188565922]
我々はQGADMM(QGADMM)という通信効率の高い分散機械学習(ML)アルゴリズムを提案する。
我々は,凸関数に対するQGADMMの収束性を証明しつつ,モデル化レベルとその確率を適応的に調整する新しい量子化法を開発した。
論文 参考訳(メタデータ) (2019-10-23T10:47:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。