論文の概要: Quantum Active Learning
- arxiv url: http://arxiv.org/abs/2405.18230v1
- Date: Tue, 28 May 2024 14:39:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 18:09:42.688907
- Title: Quantum Active Learning
- Title(参考訳): 量子アクティブラーニング
- Authors: Yongcheng Ding, Yue Ban, Mikel Sanz, José D. Martín-Guerrero, Xi Chen,
- Abstract要約: 量子ニューラルネットワークのトレーニングは通常、教師付き学習のための実質的なラベル付きトレーニングセットを必要とする。
QALはモデルを効果的にトレーニングし、完全にラベル付けされたデータセットに匹敵するパフォーマンスを達成する。
我々は,QALがランダムサンプリングベースラインに乗じて負の結果を微妙な数値実験により解明する。
- 参考スコア(独自算出の注目度): 3.3202982522589934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum machine learning, as an extension of classical machine learning that harnesses quantum mechanics, facilitates effiient learning from data encoded in quantum states. Training a quantum neural network typically demands a substantial labeled training set for supervised learning. Human annotators, often experts, provide labels for samples through additional experiments, adding to the training cost. To mitigate this expense, there is a quest for methods that maintain model performance over fully labeled datasets while requiring fewer labeled samples in practice, thereby extending few-shot learning to the quantum realm. Quantum active learning estimates the uncertainty of quantum data to select the most informative samples from a pool for labeling. Consequently, a QML model is supposed to accumulate maximal knowledge as the training set comprises labeled samples selected via sampling strategies. Notably, the QML models trained within the QAL framework are not restricted to specific types, enabling performance enhancement from the model architecture's perspective towards few-shot learning. Recognizing symmetry as a fundamental concept in physics ubiquitous across various domains, we leverage the symmetry inherent in quantum states induced by the embedding of classical data for model design. We employ an equivariant QNN capable of generalizing from fewer data with geometric priors. We benchmark the performance of QAL on two classification problems, observing both positive and negative results. QAL effectively trains the model, achieving performance comparable to that on fully labeled datasets by labeling less than 7\% of the samples in the pool with unbiased sampling behavior. Furthermore, we elucidate the negative result of QAL being overtaken by random sampling baseline through miscellaneous numerical experiments. (character count limit, see the main text)
- Abstract(参考訳): 量子機械学習は、量子力学を利用する古典的な機械学習の拡張であり、量子状態に符号化されたデータからの効率的な学習を促進する。
量子ニューラルネットワークのトレーニングは通常、教師付き学習のための実質的なラベル付きトレーニングセットを必要とする。
人間のアノテータは、しばしば専門家であり、追加の実験を通じてサンプルのラベルを提供し、トレーニングコストを増大させる。
このコストを軽減するために、完全にラベル付けされたデータセットよりもモデルパフォーマンスを維持する方法を模索する一方で、実際にラベル付けされたサンプルが少ないため、数ショットの学習を量子領域に拡張する。
量子アクティブラーニングは、量子データの不確実性を推定し、ラベル付けのためのプールから最も情報性の高いサンプルを選択する。
その結果、トレーニングセットはサンプリング戦略によって選択されたラベル付きサンプルからなるため、QMLモデルは最大知識を蓄積することが期待される。
特に、QALフレームワーク内でトレーニングされたQMLモデルは、特定のタイプに制限されないため、モデルアーキテクチャの観点からの、数発の学習に対するパフォーマンスの向上が可能になる。
様々な領域にまたがる物理学の基本概念として対称性を認識することで、モデル設計のための古典的データの埋め込みによって誘導される量子状態に固有の対称性を利用する。
我々は、幾何学的先行データより少ないデータから一般化できる同変QNNを用いる。
本稿では,2つの分類問題に対してQALの性能をベンチマークし,正と負の両方の結果を観察する。
QALはこのモデルを効果的にトレーニングし、プール内のサンプルの7\%未満をバイアスのないサンプリング動作でラベル付けすることで、完全にラベル付けされたデータセットに匹敵するパフォーマンスを達成する。
さらに,様々な数値実験により,ランダムサンプリングベースラインによってQALの負の結果が上回っていることを解明した。
(文字数制限、本文参照)
関連論文リスト
- Unifying (Quantum) Statistical and Parametrized (Quantum) Algorithms [65.268245109828]
我々はカーンズのSQオラクルとヴァリアントの弱い評価オラクルからインスピレーションを得ます。
評価クエリから学習するための非条件の下限を出力する,広範かつ直感的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-26T18:23:21Z) - Quantum support vector data description for anomaly detection [0.5439020425819]
異常検出は、データ分析とパターン認識において重要な問題であり、様々な領域における応用を見つける。
本稿では,異常検出のための教師なし学習アルゴリズムである量子支援ベクトルデータ記述(QSVDD)を紹介する。
論文 参考訳(メタデータ) (2023-10-10T07:35:09Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Subtleties in the trainability of quantum machine learning models [0.0]
本稿では,変分量子アルゴリズムの勾配スケーリング結果を用いて,量子機械学習モデルの勾配スケーリングについて検討する。
以上の結果から,VQAトレーサビリティの低下がQMLのバレンプラトーなどの問題を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2021-10-27T20:28:53Z) - Entangled Datasets for Quantum Machine Learning [0.0]
代わりに量子状態からなる量子データセットを使うべきだと我々は主張する。
NTangledデータセットの状態を生成するために量子ニューラルネットワークをどのように訓練するかを示す。
また、拡張性があり、量子回路によって準備された状態で構成される、別の絡み合いベースのデータセットについても検討する。
論文 参考訳(メタデータ) (2021-09-08T02:20:13Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - Structural risk minimization for quantum linear classifiers [0.0]
qml(quantum machine learning)は、量子コンピューティングの短期的"キラーアプリケーション"の典型的な候補の1つとして注目される。
明示的および暗黙的量子線形分類器と呼ばれる2つの密接に関連したQMLモデルの容量測定を研究する。
我々は,QMLモデルで使用される観測値のランクとフロベニウスノルムが,モデルのキャパシティを密接に制御していることを確認した。
論文 参考訳(メタデータ) (2021-05-12T10:39:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。