論文の概要: Projection Valued Measure-based Quantum Machine Learning for Multi-Class
Classification
- arxiv url: http://arxiv.org/abs/2210.16731v1
- Date: Sun, 30 Oct 2022 03:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 16:24:34.399667
- Title: Projection Valued Measure-based Quantum Machine Learning for Multi-Class
Classification
- Title(参考訳): 多クラス分類のための投影値に基づく量子機械学習
- Authors: Won Joon Yun, Hankyul Baek, and Joongheon Kim
- Abstract要約: プロジェクション評価尺度(PVM)を用いた多クラス分類のための新しいフレームワークを提案する。
我々のフレームワークは6キュービット未満のデータセットで最先端のSOTA(State-of-theart)より優れています。
- 参考スコア(独自算出の注目度): 10.90994913062223
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, quantum machine learning (QML) has been actively used for
various tasks, e.g., classification, reinforcement learning, and adversarial
learning. However, these QML studies do not achieve complex tasks due to
scalability issues on input and output are the biggest hurdle in QML. To cope
with this problem, we aim to solve the output scalability issue. Motivated by
this challenge, we focus on projection-valued measure (PVM) which utilizes the
nature of probability amplitude in quantum statistical mechanics. By leveraging
PVM, the output dimension is expanded from the number of qubits $q$ to
$\mathcal{O}(2^q)$. We propose a novel QML framework for multi-class
classification. We corroborate that our framework outperforms the
state-of-theart (SOTA) with various datasets using no more than 6 qubits.
Furthermore, our PVM-based QML outperforms 42.2% SOTA.
- Abstract(参考訳): 近年、量子機械学習(QML)は、分類、強化学習、敵対学習など様々なタスクに積極的に使われている。
しかし、これらのQML研究は、入出力におけるスケーラビリティの問題がQMLの最大のハードルであるため、複雑なタスクを達成できない。
この問題に対処するため,出力スケーラビリティの問題を解決することを目的とする。
この課題に動機づけられ,量子統計力学における確率振幅の性質を利用した投影値測度 (pvm) に着目する。
PVMを活用することにより、出力次元は、qubits $q$から$\mathcal{O}(2^q)$へと拡張される。
マルチクラス分類のための新しいQMLフレームワークを提案する。
当社のフレームワークは6キュービット未満のさまざまなデータセットで、最先端(sota)よりも優れています。
さらに、PVMベースのQMLは42.2%のSOTAより優れています。
関連論文リスト
- Security Concerns in Quantum Machine Learning as a Service [2.348041867134616]
量子機械学習(Quantum Machine Learning、QML)は、変分量子回路(VQC)を用いて機械学習タスクに取り組むアルゴリズムのカテゴリである。
近年の研究では、限られたトレーニングデータサンプルからQMLモデルを効果的に一般化できることが示されている。
QMLは、古典的および量子コンピューティングリソースの両方を利用するハイブリッドモデルである。
論文 参考訳(メタデータ) (2024-08-18T18:21:24Z) - EfficientQAT: Efficient Quantization-Aware Training for Large Language Models [50.525259103219256]
量子化対応トレーニング(QAT)は、低ビット表現によるメモリ消費を最小限の精度で削減することで、ソリューションを提供する。
より有効なQATアルゴリズムであるEfficient QAT(Efficient Quantization-Aware Training)を提案する。
効率的なQATは、全てのパラメータのブロックワイドトレーニング(Block-AP)と量子化パラメータのエンドツーエンドトレーニング(E2E-QP)の2つのフェーズを含む。
論文 参考訳(メタデータ) (2024-07-10T17:53:30Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - Benchmarking Quantum Generative Learning: A Study on Scalability and Noise Resilience using QUARK [0.3624329910445628]
本稿では,量子生成学習アプリケーションのスケーラビリティと耐雑音性について検討する。
厳密なベンチマーク手法を用いて、進捗を追跡し、QMLアルゴリズムのスケーリングにおける課題を特定する。
その結果,QGANはQCBMほど次元の呪いの影響を受けず,QCBMはノイズに耐性があることがわかった。
論文 参考訳(メタデータ) (2024-03-27T15:05:55Z) - Unifying (Quantum) Statistical and Parametrized (Quantum) Algorithms [65.268245109828]
我々はカーンズのSQオラクルとヴァリアントの弱い評価オラクルからインスピレーションを得ます。
評価クエリから学習するための非条件の下限を出力する,広範かつ直感的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-26T18:23:21Z) - A Survey on Quantum Machine Learning: Current Trends, Challenges, Opportunities, and the Road Ahead [5.629434388963902]
量子コンピューティング(QC)は、古典的な計算に比べて複雑な問題を解く効率を改善すると主張している。
QCが機械学習(ML)に統合されると、量子機械学習(QML)システムを生成する。
本稿では,QCの基本概念と,その古典コンピューティングに対する顕著な優位性について,より深く理解することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T11:52:54Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - Enhancing Quantum Support Vector Machines through Variational Kernel
Training [0.0]
本稿では、既存の量子カーネルSVMと量子変分SVMの2つの方法に焦点を当てる。
本稿では,QK-SVMとQV-SVMの強度を相乗化して精度を向上させる手法を提案する。
以上の結果から,QVK-SVMはQMLアプリケーションの信頼性とトランスフォーメーションツールとして大きな可能性を秘めていることがわかった。
論文 参考訳(メタデータ) (2023-05-10T11:30:43Z) - MA2QL: A Minimalist Approach to Fully Decentralized Multi-Agent
Reinforcement Learning [63.46052494151171]
テキストマルチエージェント代替Q-ラーニング(MA2QL)を提案し、エージェントが順番にQ-ラーニングによってQ-関数を更新する。
各エージェントが各ターンで$varepsilon$-convergenceを保証した場合、それらの合同ポリシーはナッシュ均衡に収束する。
結果は、MA2QLが最小限の変更にもかかわらず、MA2QLの有効性を検証するIQLを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2022-09-17T04:54:32Z) - QSAN: A Near-term Achievable Quantum Self-Attention Network [73.15524926159702]
SAM(Self-Attention Mechanism)は機能の内部接続を捉えるのに長けている。
短期量子デバイスにおける画像分類タスクに対して,新しい量子自己注意ネットワーク(QSAN)を提案する。
論文 参考訳(メタデータ) (2022-07-14T12:22:51Z) - Subtleties in the trainability of quantum machine learning models [0.0]
本稿では,変分量子アルゴリズムの勾配スケーリング結果を用いて,量子機械学習モデルの勾配スケーリングについて検討する。
以上の結果から,VQAトレーサビリティの低下がQMLのバレンプラトーなどの問題を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2021-10-27T20:28:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。