論文の概要: Quantum feature encoding optimization
- arxiv url: http://arxiv.org/abs/2512.02422v1
- Date: Tue, 02 Dec 2025 05:07:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.730699
- Title: Quantum feature encoding optimization
- Title(参考訳): 量子特徴符号化最適化
- Authors: Tommaso Fioravanti, Brian Quanz, Gabriele Agliardi, Edgar Andres Ruiz Guzman, Ginés Carrascal, Jae-Eun Park,
- Abstract要約: QMLモデリングに特有の符号化の、ほとんど適応していない側面に取り組みます。
符号化のこれらの側面がQMLモデルの性能に大きな影響を及ぼすかどうかを評価する。
我々は、機能がどのようにアンサッツに符号化されているかを最適化することにより、QMLモデルの性能を大幅に改善できることを示す。
- 参考スコア(独自算出の注目度): 1.4962440253906657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum Machine Learning (QML) holds the promise of enhancing machine learning modeling in terms of both complexity and accuracy. A key challenge in this domain is the encoding of input data, which plays a pivotal role in determining the performance of QML models. In this work, we tackle a largely unaddressed aspect of encoding that is unique to QML modeling -- rather than adjusting the ansatz used for encoding, we consider adjusting how data is conveyed to the ansatz. We specifically implement QML pipelines that leverage classical data manipulation (i.e., ordering, selecting, and weighting features) as a preprocessing step, and evaluate if these aspects of encoding can have a significant impact on QML model performance, and if they can be effectively optimized to improve performance. Our experimental results, applied across a wide variety of data sets, ansatz, and circuit sizes, with a representative QML approach, demonstrate that by optimizing how features are encoded in an ansatz we can substantially and consistently improve the performance of QML models, making a compelling case for integrating these techniques in future QML applications. Finally we demonstrate the practical feasibility of this approach by running it using real quantum hardware with 100 qubit circuits and successfully achieving improved QML modeling performance in this case as well.
- Abstract(参考訳): 量子機械学習(QML)は、複雑さと正確性の両方の観点から機械学習モデリングを強化するという約束を持っている。
この領域における重要な課題は入力データの符号化であり、QMLモデルの性能を決定する上で重要な役割を果たす。
本研究では、符号化に使用されるアンザッツを調整するのではなく、データがどのようにアンザッツに伝達されるかを調整することを検討する。
具体的には、従来のデータ操作(例えば、順序付け、選択、重み付けなど)を前処理ステップとして活用するQMLパイプラインを実装し、符号化のこれらの側面がQMLモデルの性能に重大な影響を与えるかどうか、性能改善のために効果的に最適化できるかどうかを評価する。
我々の実験結果は、様々なデータセット、アンザッツ、回路サイズに適用され、代表的QMLアプローチにより、機能がどのようにアンザッツに符号化されているかを最適化することで、QMLモデルの性能を実質的に一貫的に改善できることを示し、将来のQMLアプリケーションにこれらの技術を統合する上で魅力的なケースとなっている。
最後に,100量子ビット回路を用いた実量子ハードウェアを用いて本手法の実現可能性を示すとともに,QMLモデリング性能の向上にも成功している。
関連論文リスト
- End-to-End On-Device Quantization-Aware Training for LLMs at Inference Cost [53.25965863436039]
量子化対応トレーニング(QAT)は、より原則化されたソリューションを提供するが、バックプロパゲーションに依存しているため、メモリコストは禁じられている。
重み付けとアクティベーション量子化の両方をサポートするゼロオーダー最適化ベースのQATフレームワークであるZeroQATを提案する。
実験の結果、ZeroQATはPTQとQATのベースラインを一貫して上回り、メモリは大幅に削減された。
論文 参考訳(メタデータ) (2025-08-21T01:18:27Z) - Learning to Program Quantum Measurements for Machine Learning [10.617463958884528]
高性能量子機械学習モデルの開発には、専門家レベルの専門知識が必要である。
本稿では,量子系の可観測性,特にエルミート行列の学習性を示す革新的なフレームワークを提案する。
提案手法は変動量子回路内で観測可能を動的にプログラムし,既存の手法よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2025-05-18T02:39:22Z) - An Efficient Quantum Classifier Based on Hamiltonian Representations [50.467930253994155]
量子機械学習(QML)は、量子コンピューティングの利点をデータ駆動タスクに移行しようとする分野である。
入力をパウリ弦の有限集合にマッピングすることで、データ符号化に伴うコストを回避できる効率的な手法を提案する。
我々は、古典的および量子モデルに対して、テキストおよび画像分類タスクに対する我々のアプローチを評価する。
論文 参考訳(メタデータ) (2025-04-13T11:49:53Z) - Quantizing Large Language Models for Code Generation: A Differentiated Replication [51.85505914274633]
大規模言語モデル(LLM)は、コード生成において印象的な能力を示しており、特に自然言語で記述された要求を自動的に実装する。
LLMはメモリ(そして結果として炭素)のフットプリントに重大な課題をもたらす。
LLM量子化の新しいフロンティアは4ビット精度であり、平均メモリフットプリントが70%減少する。
論文 参考訳(メタデータ) (2025-03-10T09:26:08Z) - Learning to Measure Quantum Neural Networks [10.617463958884528]
本稿では,量子系の可観測性,特にエルミート行列学習性を実現する新しい手法を提案する。
本手法では,パラメータ化可観測関数を通常の量子回路パラメータとともに学習するエンド・ツー・エンドの微分可能学習フレームワークを特徴とする。
数値シミュレーションにより,提案手法は変動量子回路の観測値の同定が可能であり,その結果が得られた。
論文 参考訳(メタデータ) (2025-01-10T02:28:19Z) - LLMC: Benchmarking Large Language Model Quantization with a Versatile Compression Toolkit [55.73370804397226]
鍵圧縮技術である量子化は、大きな言語モデルを圧縮し、加速することにより、これらの要求を効果的に軽減することができる。
本稿では,プラグアンドプレイ圧縮ツールキットであるLLMCについて,量子化の影響を公平かつ体系的に検討する。
この汎用ツールキットによって、我々のベンチマークはキャリブレーションデータ、アルゴリズム(3つの戦略)、データフォーマットの3つの重要な側面をカバーしています。
論文 参考訳(メタデータ) (2024-05-09T11:49:05Z) - Extreme Compression of Large Language Models via Additive Quantization [59.3122859349777]
我々のアルゴリズムは、AQLMと呼ばれ、情報検索のための古典的な加算量子化(AQ)アプローチを一般化する。
トークン生成のためのAQLMの高速GPUおよびCPU実装を提供しており、最適化されたFP16実装を高速にマッチングまたは性能良くすることができる。
論文 参考訳(メタデータ) (2024-01-11T18:54:44Z) - Reflection Equivariant Quantum Neural Networks for Enhanced Image
Classification [0.7232471205719458]
我々は、データに固有の対称性を明示的に尊重する新しい機械学習モデル、いわゆる幾何量子機械学習(GQML)を構築した。
これらのネットワークは、複雑な実世界の画像データセットに対する一般的なアンサーゼを一貫して、そして著しく向上させることができる。
論文 参考訳(メタデータ) (2022-12-01T04:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。