論文の概要: How many qubits does a machine learning problem require?
- arxiv url: http://arxiv.org/abs/2508.20992v1
- Date: Thu, 28 Aug 2025 16:55:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.521201
- Title: How many qubits does a machine learning problem require?
- Title(参考訳): 機械学習の問題はいくつ必要か?
- Authors: Sydney Leither, Michael Kubal, Sonika Johri,
- Abstract要約: 我々は,最近提案されたビットビット符号化方式により,普遍近似の特性が構成的かつ効率的に実現されていることを示す。
この構成により、データセット上の学習問題を目標精度で解くのに必要なキュービット数を計算することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: For a machine learning paradigm to be generally applicable, it should have the property of universal approximation, that is, it should be able to approximate any target function to any desired degree of accuracy. In variational quantum machine learning, the class of functions that can be learned depend on both the data encoding scheme as well as the architecture of the optimizable part of the model. Here, we show that the property of universal approximation is constructively and efficiently realized by the recently proposed bit-bit encoding scheme. Further, we show that this construction allows us to calculate the number of qubits required to solve a learning problem on a dataset to a target accuracy, giving rise to the first resource estimation framework for variational quantum machine learning. We apply bit-bit encoding to a number of medium-sized datasets from OpenML and find that they require only $20$ qubits on average for encoding. Further, we extend the basic bit-bit encoding scheme to one that can handle batching very large datasets. As a demonstration, we apply this new scheme to the giga-scale transcriptomic Tahoe-100M dataset, concluding that the number of qubits required for encoding it lies beyond classical simulation capabilities. Remarkably, we find that the number of qubits does not necessarily increase with the number of features of a dataset, but may sometimes even decrease.
- Abstract(参考訳): 機械学習のパラダイムが一般に適用されるためには、普遍近似の特性、すなわち任意の対象関数を任意の精度で近似することができるべきである。
変分量子機械学習では、学習可能な関数のクラスは、データの符号化スキームだけでなく、モデルの最適化可能な部分のアーキテクチャにも依存する。
本稿では,最近提案されたビットビット符号化方式により,普遍近似の特性が構成的かつ効率的に実現されていることを示す。
さらに、この構成により、データセット上の学習問題を目標精度で解くのに必要なキュービット数を計算することができ、変動量子機械学習のための最初のリソース推定フレームワークがもたらされることを示す。
ビットビットエンコーディングをOpenMLの複数の中規模のデータセットに適用し、符号化に平均20ドル相当のキュービットしか必要としないことが分かった。
さらに,この基本ビットビット符号化方式を,バッチ処理を非常に大きなデータセットで処理できるものに拡張する。
本手法をギガスケールのTahoe-100Mデータセットに適用し、符号化に必要な量子ビットの数は古典的なシミュレーション能力を超えていると結論付けた。
注目すべきは、データセットの特徴の数によって、キュービットの数は必ずしも増加しないが、時には減少する可能性があることだ。
関連論文リスト
- An Efficient Quantum Classifier Based on Hamiltonian Representations [50.467930253994155]
量子機械学習(QML)は、量子コンピューティングの利点をデータ駆動タスクに移行しようとする分野である。
入力をパウリ弦の有限集合にマッピングすることで、データ符号化に伴うコストを回避できる効率的な手法を提案する。
我々は、古典的および量子モデルに対して、テキストおよび画像分類タスクに対する我々のアプローチを評価する。
論文 参考訳(メタデータ) (2025-04-13T11:49:53Z) - Bit-bit encoding, optimizer-free training and sub-net initialization: techniques for scalable quantum machine learning [0.0]
入力と出力の両方をバイナリ文字列としてエンコードする量子分類器を提案する。
1つのパラメータが一度に更新されると、局所的な最小値への収束を保証する方法で量子モデルを訓練できることが示される。
論文 参考訳(メタデータ) (2025-01-04T00:35:14Z) - Supervised binary classification of small-scale digit images and weighted graphs with a trapped-ion quantum processor [56.089799129458875]
捕捉された171ドルYb$+$イオンに基づく量子プロセッサのベンチマーク結果を示す。
リングトポロジを持つ小さな二進数画像と重み付きグラフの2種類のデータセットに対して、教師付き二進分類を行う。
論文 参考訳(メタデータ) (2024-06-17T18:20:51Z) - Data-driven decoding of quantum error correcting codes using graph neural networks [0.0]
グラフニューラルネットワーク(GNN)を用いたモデルフリーでデータ駆動型デコーディングアプローチについて検討する。
GNNベースのデコーダは、シミュレーションデータのみを与えられた表面コード上での回路レベルのノイズに対する整合デコーダよりも優れていることを示す。
その結果、デコードに対する純粋にデータ駆動型アプローチが、実用的な量子誤り訂正のための実行可能な選択肢である可能性が示唆された。
論文 参考訳(メタデータ) (2023-07-03T17:25:45Z) - The case for 4-bit precision: k-bit Inference Scaling Laws [75.4335600212427]
量子化法は、モデル内の各パラメータを表すために必要なビット数を減少させる。
最終的なモデルサイズは、元のモデルのパラメータの数と圧縮率の両方に依存する。
我々は16ビットの入力とkビットのパラメータを持つ35,000以上のゼロショット実験を行い、どの量子化手法が3ビットから8ビットの精度でスケーリングを改善するかを検証した。
論文 参考訳(メタデータ) (2022-12-19T18:48:33Z) - Statistically Meaningful Approximation: a Case Study on Approximating
Turing Machines with Transformers [50.85524803885483]
本研究は,統計的学習性を示すために近似ネットワークを必要とする統計有意(SM)近似の形式的定義を提案する。
回路とチューリングマシンの2つの機能クラスに対するSM近似について検討する。
論文 参考訳(メタデータ) (2021-07-28T04:28:55Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。