論文の概要: On the connection between least squares, regularization, and classical
shadows
- arxiv url: http://arxiv.org/abs/2310.16921v2
- Date: Thu, 25 Jan 2024 20:18:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 17:49:58.938164
- Title: On the connection between least squares, regularization, and classical
shadows
- Title(参考訳): 最小二乗、正則化、古典影の関連について
- Authors: Zhihui Zhu, Joseph M. Lukens, Brian T. Kirby
- Abstract要約: RLS と CS の両者を, 未決定状態の正則化剤とみなすことができることを示す。
RLSとCSを3つの異なる角度から評価し, バイアスと分散のトレードオフ, 期待値と実測値とのミスマッチ, 計測数と撮影数との相互作用について検討した。
- 参考スコア(独自算出の注目度): 19.817992784670228
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classical shadows (CS) offer a resource-efficient means to estimate quantum
observables, circumventing the need for exhaustive state tomography. Here, we
clarify and explore the connection between CS techniques and least squares (LS)
and regularized least squares (RLS) methods commonly used in machine learning
and data analysis. By formal identification of LS and RLS "shadows" completely
analogous to those in CS -- namely, point estimators calculated from the
empirical frequencies of single measurements -- we show that both RLS and CS
can be viewed as regularizers for the underdetermined regime, replacing the
pseudoinverse with invertible alternatives. Through numerical simulations, we
evaluate RLS and CS from three distinct angles: the tradeoff in bias and
variance, mismatch between the expected and actual measurement distributions,
and the interplay between the number of measurements and number of shots per
measurement. Compared to CS, RLS attains lower variance at the expense of bias,
is robust to distribution mismatch, and is more sensitive to the number of
shots for a fixed number of state copies -- differences that can be understood
from the distinct approaches taken to regularization. Conceptually, our
integration of LS, RLS, and CS under a unifying "shadow" umbrella aids in
advancing the overall picture of CS techniques, while practically our results
highlight the tradeoffs intrinsic to these measurement approaches, illuminating
the circumstances under which either RLS or CS would be preferred, such as
unverified randomness for the former or unbiased estimation for the latter.
- Abstract(参考訳): 古典的なシャドウ(cs)は、徹底的な状態トモグラフィの必要性を回避し、量子観測量の推定に資源効率のよい手段を提供する。
本稿では,CS技術と最小二乗法(LS)と,機械学習やデータ解析によく用いられる正則最小二乗法(RLS)の関連性を明らかにする。
LS と RLS の形式的同定により、LS と RLS の「陰影」は完全にCS のものと類似しており、すなわち、単一測定の経験的な周波数から計算された点推定器は、LS と CS の両方を、未決定状態の正則化器と見なすことができ、偽逆を可逆的な代替品に置き換えることができる。
数値シミュレーションにより, RLS と CS は, バイアスと分散のトレードオフ, 期待値と実測値のミスマッチ, 計測数と撮影数との相互作用の3つの異なる角度から評価した。
CSと比較して、RSSはバイアスを犠牲にして低い分散を実現し、分散ミスマッチに対して堅牢であり、一定の数の状態コピーのショット数に敏感である。
概念的には,ls,rls,csの一体化は,cs技術の全体像を前進させる上での「シャドー」傘支援であり,実際の結果は,これらの測定手法に固有のトレードオフを浮き彫りにして,前者や未バイアス推定者に対する検証不能なランダム性など,rlとcsのどちらが好ましいかという条件を照らしている。
関連論文リスト
- Low-Rank Approximation of Structural Redundancy for Self-Supervised
Learning [2.725698729450241]
本研究では,その有効性に光を当てるために,再構成SSLのデータ生成機構について検討する。
ラベル付きサンプルの無限の量で、完全線形近似に十分かつ必要な条件を提供する。
この条件により、低ランク因子化による冗長成分の近似を提案する。
論文 参考訳(メタデータ) (2024-02-10T04:45:27Z) - Sample Complexity of the Sign-Perturbed Sums Identification Method:
Scalar Case [0.0]
Sign-Perturbed Sum (SPS) は強力な有限サンプルシステム同定アルゴリズムである。
本稿では,SPS信頼区間の挙動について検討する。
論文 参考訳(メタデータ) (2024-01-28T22:44:41Z) - A U-turn on Double Descent: Rethinking Parameter Counting in Statistical
Learning [68.76846801719095]
二重降下がいつどこで起こるのかを正確に示し、その位置が本質的に閾値 p=n に結び付けられていないことを示す。
これは二重降下と統計的直観の間の緊張を解消する。
論文 参考訳(メタデータ) (2023-10-29T12:05:39Z) - Overcoming Distribution Mismatch in Quantizing Image Super-Resolution
Networks [60.37328488058772]
本稿では,SRネットワークにおける分散ミスマッチ問題を効果的に克服する量子化対応学習フレームワークを提案する。
提案アルゴリズムはODMと呼ばれ,計算オーバーヘッドを最小限に抑えた分散におけるミスマッチを効果的に低減する。
論文 参考訳(メタデータ) (2023-07-25T08:50:01Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Coarse-to-Fine Sparse Transformer for Hyperspectral Image Reconstruction [138.04956118993934]
本稿では, サース・トゥ・ファインス・スパース・トランス (CST) を用いた新しいトランス方式を提案する。
HSI再構成のための深層学習にHSI空間を埋め込んだCST
特に,CSTは,提案したスペクトル認識スクリーニング機構(SASM)を粗いパッチ選択に使用し,選択したパッチを,細かなピクセルクラスタリングと自己相似性キャプチャのために,カスタマイズしたスペクトル集約ハッシュ型マルチヘッド自己アテンション(SAH-MSA)に入力する。
論文 参考訳(メタデータ) (2022-03-09T16:17:47Z) - Context-Specific Likelihood Weighting [0.0]
近似推論のための文脈特異性重み付け(CS-LW)を提案する。
標準の確率重み付けとは異なり、CS-LW はランダム変数の部分代入に基づいている。
我々はCS-LWが近似推論のための最先端アルゴリズムと競合していることを実証的に示す。
論文 参考訳(メタデータ) (2021-01-24T20:23:14Z) - Dimensionality reduction, regularization, and generalization in
overparameterized regressions [8.615625517708324]
主成分回帰(主成分回帰)としても知られるPCA-OLSは次元の減少によって回避できることを示す。
OLSは任意に敵の攻撃を受けやすいが,次元性低下はロバスト性を向上させることを示す。
その結果,プロジェクションがトレーニングデータに依存する手法は,トレーニングデータとは独立にプロジェクションが選択される手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-11-23T15:38:50Z) - Understanding Gradient Clipping in Private SGD: A Geometric Perspective [68.61254575987013]
ディープラーニングモデルは、トレーニングデータが機密情報を含む可能性がある多くの機械学習アプリケーションで、ますます人気が高まっている。
多くの学習システムは、(異なる)プライベートSGDでモデルをトレーニングすることで、差分プライバシーを取り入れている。
各プライベートSGDアップデートにおける重要なステップは勾配クリッピングであり、L2ノルムがしきい値を超えると、個々の例の勾配を小さくする。
論文 参考訳(メタデータ) (2020-06-27T19:08:12Z) - Accelerated Convergence for Counterfactual Learning to Rank [65.63997193915257]
IPS重み付き勾配を持つSGD手法の収束速度は、IPS重みによる大きなばらつきに悩まされることを示す。
本稿では,従来のIPS重み付け勾配降下法よりも優れた収束性を有する新しい学習アルゴリズムであるCounterSampleを提案する。
我々は、CounterSampleがより早く収束し、理論的な結果と経験的な結果とを補完することを証明する。
論文 参考訳(メタデータ) (2020-05-21T12:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。