論文の概要: Minimax Optimality of Classical Scaling Under General Noise Conditions
- arxiv url: http://arxiv.org/abs/2502.00947v1
- Date: Sun, 02 Feb 2025 22:35:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:02:01.296112
- Title: Minimax Optimality of Classical Scaling Under General Noise Conditions
- Title(参考訳): 騒音条件下における古典的スケーリングの最小最適性
- Authors: Siddharth Vishwanath, Ery Arias-Castro,
- Abstract要約: 我々は、幅広い種類のノイズモデルの下で古典的なスケーリングの一貫性を確立する。
古典的スケーリングの収束率を導出し、一致するミニマックス下界を確立する。
- 参考スコア(独自算出の注目度): 5.110444063763576
- License:
- Abstract: We establish the consistency of classical scaling under a broad class of noise models, encompassing many commonly studied cases in literature. Our approach requires only finite fourth moments of the noise, significantly weakening standard assumptions. We derive convergence rates for classical scaling and establish matching minimax lower bounds, demonstrating that classical scaling achieves minimax optimality in recovering the true configuration even when the input dissimilarities are corrupted by noise.
- Abstract(参考訳): 我々は、幅広い種類のノイズモデルの下で古典的スケーリングの整合性を確立し、文献でよく研究される多くの事例を包含する。
我々のアプローチでは、ノイズの4分の1しか必要とせず、標準仮定を著しく弱めている。
古典的スケーリングの収束率を導出し, 一致したミニマックス下限を確立することにより, 入力の相違がノイズによって損なわれる場合でも, 古典的スケーリングが真の構成を回復する際の最小最適性を達成することを示す。
関連論文リスト
- Mirror Descent Under Generalized Smoothness [23.5387392871236]
一般ノルムと双対のヘッセン項のノルムを測定する新しい$ell*$-smoothnessの概念を導入する。
我々は、古典的な滑らかさの下でのレートに一致するミラー・ディフレッシュ型アルゴリズムの収束性を確立する。
論文 参考訳(メタデータ) (2025-02-02T11:23:10Z) - Universality of Benign Overfitting in Binary Linear Classification [1.6385815610837167]
深層ニューラルネットワークは、過度にパラメータ化された状態において、うまく一般化しているようだ。
現在、様々な古典的な統計モデルにも良性過剰適合が生じることが知られている。
論文 参考訳(メタデータ) (2025-01-17T20:22:06Z) - A Novel Noise-Aware Classical Optimizer for Variational Quantum Algorithms [1.4770642357768933]
変分量子アルゴリズム(VQA)の重要な構成要素は、アンザッツのパラメータ化を更新するために使用される古典的解法の選択である。
量子アルゴリズムは、近い将来、常に限られた忠実度を持つノイズの多いデバイス上で実行されることがよく認識されている。
本稿では,標準モデルベース手法と区別する新しいノイズ対応微分モデルベース手法のキーとなる特徴について紹介する。
論文 参考訳(メタデータ) (2024-01-18T16:51:02Z) - First Order Methods with Markovian Noise: from Acceleration to Variational Inequalities [91.46841922915418]
本稿では,一階変分法の理論解析のための統一的アプローチを提案する。
提案手法は非線形勾配問題とモンテカルロの強い問題の両方をカバーする。
凸法最適化問題の場合、オラクルに強く一致するような境界を与える。
論文 参考訳(メタデータ) (2023-05-25T11:11:31Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - MaxMatch: Semi-Supervised Learning with Worst-Case Consistency [149.03760479533855]
半教師付き学習(SSL)のための最悪ケース整合正則化手法を提案する。
本稿では,ラベル付きトレーニングデータとラベル付きトレーニングデータとを別々に比較した経験的損失項からなるSSLの一般化について述べる。
この境界によって動機づけられたSSLの目的は、元のラベルのないサンプルと、その複数の拡張版との最大の矛盾を最小限に抑えるものである。
論文 参考訳(メタデータ) (2022-09-26T12:04:49Z) - Heavy-tailed denoising score matching [5.371337604556311]
ランゲヴィン力学における複数のノイズレベルを連続的に初期化する反復的雑音スケーリングアルゴリズムを開発した。
実用面では、重み付きDSMを用いることで、スコア推定、制御可能なサンプリング収束、不均衡データセットに対するよりバランスのない非条件生成性能が改善される。
論文 参考訳(メタデータ) (2021-12-17T22:04:55Z) - Optimizing Information-theoretical Generalization Bounds via Anisotropic
Noise in SGLD [73.55632827932101]
SGLDにおけるノイズ構造を操作することにより,情報理論の一般化を最適化する。
低経験的リスクを保証するために制約を課すことで、最適なノイズ共分散が期待される勾配共分散の平方根であることを証明する。
論文 参考訳(メタデータ) (2021-10-26T15:02:27Z) - Finite Sample Analysis of Minimax Offline Reinforcement Learning:
Completeness, Fast Rates and First-Order Efficiency [83.02999769628593]
強化学習におけるオフ・ポリティィ・アセスメント(OPE)の理論的特徴について述べる。
ミニマックス法により、重みと品質関数の高速収束を実現することができることを示す。
非タブラル環境における1次効率を持つ最初の有限サンプル結果を示す。
論文 参考訳(メタデータ) (2021-02-05T03:20:39Z) - Shape Matters: Understanding the Implicit Bias of the Noise Covariance [76.54300276636982]
勾配降下のノイズはパラメータ化モデルに対するトレーニングにおいて重要な暗黙の正則化効果をもたらす。
ミニバッチやラベルの摂動によって引き起こされるパラメータ依存ノイズはガウスノイズよりもはるかに効果的であることを示す。
分析の結果,パラメータ依存ノイズは局所最小値に偏りを生じさせるが,球状ガウス雑音は生じないことがわかった。
論文 参考訳(メタデータ) (2020-06-15T18:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。