論文の概要: You Only Measure Once: On Designing Single-Shot Quantum Machine Learning Models
- arxiv url: http://arxiv.org/abs/2509.20090v1
- Date: Wed, 24 Sep 2025 13:08:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.817433
- Title: You Only Measure Once: On Designing Single-Shot Quantum Machine Learning Models
- Title(参考訳): 一度だけ測定する:シングルショット量子機械学習モデルの設計について
- Authors: Chen-Yu Liu, Leonardo Placidi, Kuan-Cheng Chen, Samuel Yen-Chi Chen, Gabriel Matos,
- Abstract要約: You Only Measure Once (Yomo) は、劇的に少ない測定で正確な推論を実現する設計である。
理論解析により,Yomoは期待モデルに固有のショットスケーリング制限を回避していることがわかった。
正確な単発推論を可能にすることで、YomoはQMLをデプロイする際の金銭的および計算的コストを大幅に削減する。
- 参考スコア(独自算出の注目度): 24.37228281917747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum machine learning (QML) models conventionally rely on repeated measurements (shots) of observables to obtain reliable predictions. This dependence on large shot budgets leads to high inference cost and time overhead, which is particularly problematic as quantum hardware access is typically priced proportionally to the number of shots. In this work we propose You Only Measure Once (Yomo), a simple yet effective design that achieves accurate inference with dramatically fewer measurements, down to the single-shot regime. Yomo replaces Pauli expectation-value outputs with a probability aggregation mechanism and introduces loss functions that encourage sharp predictions. Our theoretical analysis shows that Yomo avoids the shot-scaling limitations inherent to expectation-based models, and our experiments on MNIST and CIFAR-10 confirm that Yomo consistently outperforms baselines across different shot budgets and under simulations with depolarizing channels. By enabling accurate single-shot inference, Yomo substantially reduces the financial and computational costs of deploying QML, thereby lowering the barrier to practical adoption of QML.
- Abstract(参考訳): 量子機械学習(QML)モデルは伝統的に、信頼できる予測を得るために観測可能なものの繰り返しの測定(ショット)に依存している。
この大きなショット予算への依存は、高い推論コストと時間オーバーヘッドをもたらすが、特に問題となるのは、量子ハードウェアアクセスは通常、ショットの数に比例して価格が設定されるためである。
この作業では、単発体制に至るまで、劇的に少ない測定で正確な推論を実現する、シンプルで効果的な設計であるYou Only Measure Once (Yomo)を提案する。
Yomoは、パウリ予想値の出力を確率集約機構に置き換え、鋭い予測を促す損失関数を導入する。
MNIST と CIFAR-10 の実験により,Yomo は様々な撮影予算および非分極チャネルを用いたシミュレーションにおいて,一貫してベースラインを上回っていることを確認した。
正確な単発推論を可能にすることで、YomoはQMLをデプロイする際の金銭的および計算的コストを大幅に削減し、QMLの実用化への障壁を低くする。
関連論文リスト
- Uncertainty-Aware Collaborative System of Large and Small Models for Multimodal Sentiment Analysis [17.98292973608615]
マルチモーダル感情分析のための強力なMLLMと軽量なベースラインモデルを編成する新しい不確実性認識協調システム(U-ACS)を提案する。
提案手法は,スタンドアロンのMLLMに比べて計算資源のごく一部しか必要とせず,最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-08-27T16:01:58Z) - ZeroQAT: Your Quantization-aware Training but Efficient [53.25965863436039]
量子化は、大規模言語モデル(LLM)のデプロイメントコストを削減する効果的な手法である。
既存の低ビットPTQ法は, 局所再構成目標と下流性能の相違による累積誤差の伝搬と誤調整が生じるため, 精度劣化に悩まされる。
我々は,ゼロオーダー最適化に基づくQATフレームワークZeroQATを提案する。
論文 参考訳(メタデータ) (2025-08-21T01:18:27Z) - UncertainSAM: Fast and Efficient Uncertainty Quantification of the Segment Anything Model [19.8785302359805]
本稿では,ベイズエントロピーの定式化に基づく理論的動機付けの不確実性定量化モデルを提案する。
この定式化を利用して、軽量なポストホックUQ手法USAMを訓練する。
提案した決定論的USAMは,SA-V,MOSE,ADE20k,DAVIS,COCOデータセットに優れた予測能力を示す。
論文 参考訳(メタデータ) (2025-05-08T08:36:23Z) - Supervised Optimism Correction: Be Confident When LLMs Are Sure [91.7459076316849]
教師付き微調整とオフライン強化学習の間には,新たな理論的関係が確立されている。
広く使われているビームサーチ法は、許容できない過度な最適化に悩まされていることを示す。
本稿では,トークンレベル$Q$-value推定のための簡易かつ効果的な補助的損失を導入したSupervised Optimism Correctionを提案する。
論文 参考訳(メタデータ) (2025-04-10T07:50:03Z) - TFMQ-DM: Temporal Feature Maintenance Quantization for Diffusion Models [52.454274602380124]
拡散モデルは非常に時間ステップ$t$に大きく依存し、良好なマルチラウンドデノジングを実現している。
本稿では,時間情報ブロック上に構築した時間的特徴保守量子化(TFMQ)フレームワークを提案する。
先駆的なブロック設計により、時間情報認識再構成(TIAR)と有限集合キャリブレーション(FSC)を考案し、完全な時間的特徴を整列させる。
論文 参考訳(メタデータ) (2023-11-27T12:59:52Z) - Tight Mutual Information Estimation With Contrastive Fenchel-Legendre
Optimization [69.07420650261649]
我々はFLOと呼ばれる新しい,シンプルで強力なコントラストMI推定器を提案する。
実証的に、我々のFLO推定器は前者の限界を克服し、より効率的に学習する。
FLOの有効性は、広範囲なベンチマークを用いて検証され、実際のMI推定におけるトレードオフも明らかにされる。
論文 参考訳(メタデータ) (2021-07-02T15:20:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。