論文の概要: Computable Bernstein Certificates for Cross-Fitted Clipped Covariance Estimation
- arxiv url: http://arxiv.org/abs/2602.14020v1
- Date: Sun, 15 Feb 2026 06:53:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.601553
- Title: Computable Bernstein Certificates for Cross-Fitted Clipped Covariance Estimation
- Title(参考訳): 計算可能ベルンシュタイン証明によるクロスフィットクラップ共分散推定
- Authors: Even He, Zaizai Yan,
- Abstract要約: 計算可能なベルンシュタイン型偏差証明を備えたクロスフィットクリッピング共分散推定器を提案する。
結果として得られる手順は、緩やかな尾の規則性の下での有効ランクのような本質的な複雑性尺度に適応する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study operator-norm covariance estimation from heavy-tailed samples that may include a small fraction of arbitrary outliers. A simple and widely used safeguard is \emph{Euclidean norm clipping}, but its accuracy depends critically on an unknown clipping level. We propose a cross-fitted clipped covariance estimator equipped with \emph{fully computable} Bernstein-type deviation certificates, enabling principled data-driven tuning via a selector (\emph{MinUpper}) that balances certified stochastic error and a robust hold-out proxy for clipping bias. The resulting procedure adapts to intrinsic complexity measures such as effective rank under mild tail regularity and retains meaningful guarantees under only finite fourth moments. Experiments on contaminated spiked-covariance benchmarks illustrate stable performance and competitive accuracy across regimes.
- Abstract(参考訳): 任意の外れ値のごく一部を含む重み付きサンプルの演算子-ノルム共分散推定について検討した。
シンプルで広く使われているセーフガードは \emph{Euclidean norm clipping} であるが、その精度は未知のクリッピングレベルに依存している。
本稿では,証明された確率誤差のバランスをとるセレクタ(\emph{MinUpper})と,クリッピングバイアスのための頑健なホールドアウトプロキシを備えたクロスフィット型クリッピング共分散推定器を提案する。
結果として得られる手順は、緩やかな尾の規則性の下での有効ランクのような本質的な複雑さの尺度に適応し、有限第四モーメントしか持たない有意義な保証を保持する。
汚染されたスパイク共分散ベンチマークの実験では、レジーム間の安定した性能と競争精度が示されている。
関連論文リスト
- CAOS: Conformal Aggregation of One-Shot Predictors [0.0]
ワンショット予測は、1つのラベル付き例のみを使用して、事前訓練された基礎モデルの新しいタスクへの迅速な適応を可能にする。
標準分割コンフォメーション法は、データ分割と単一の予測器への依存のため、ワンショット設定では非効率である。
本稿では,複数のワンショット予測器を適応的に集約するコンフォーマルフレームワークである1ショット予測器のコンフォーマルアグリゲーション(CAOS)を提案する。
論文 参考訳(メタデータ) (2026-01-08T18:44:21Z) - Learning from N-Tuple Data with M Positive Instances: Unbiased Risk Estimation and Theoretical Guarantees [33.15955234458642]
弱教師付き学習はしばしばラベルよりも粗い集約信号で機能する。
学習可能な未バイアスリスク推定器 (URE) をインスタンス生成プロセスと潜在限界値にリンクすることで, カウントが許容できることを示す。
我々は,理論上は基礎的かつ事実上安定的な目標設定によって,カウントオンリーの監視を効果的に活用できることを実証した。
論文 参考訳(メタデータ) (2025-10-21T08:28:07Z) - Post-Hoc Split-Point Self-Consistency Verification for Efficient, Unified Quantification of Aleatoric and Epistemic Uncertainty in Deep Learning [5.996056764788456]
不確実性定量化(UQ)は、信頼できる深層学習には不可欠であるが、既存の手法は計算集約的であるか、タスク固有の部分的な見積もりのみを提供する。
本研究では,事前訓練したモデルの変更や再訓練を伴わずに,アレタリックおよびてんかんの不確実性を共同でキャプチャするポストホック・シングルフォワード・パス・フレームワークを提案する。
提案手法は,EmphSplit-Point Analysis (SPA) を用いて,予測残差を上下サブセットに分解し,各側でEmphMean Absolute Residuals (MAR) を演算する。
論文 参考訳(メタデータ) (2025-09-16T17:16:01Z) - Robust Conformal Prediction with a Single Binary Certificate [58.450154976190795]
コンフォーマル予測(CP)は、任意のモデルの出力を、真のラベルを(調整可能な)高い確率でカバーすることを保証した予測セットに変換する。
我々は,MCサンプルが著しく低い場合でも,より小さな集合を生成する頑健な共形予測を提案する。
論文 参考訳(メタデータ) (2025-03-07T08:41:53Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Distribution-free binary classification: prediction sets, confidence
intervals and calibration [106.50279469344937]
分布自由条件における二項分類のための不確実性定量化(キャリブレーション、信頼区間、予測セット)の3つの概念について検討する。
固定幅と一様質量の両双対の双対確率に対する信頼区間を導出する。
我々の「三脚」定理の結果として、双有理確率に対するこれらの信頼区間は分布自由キャリブレーションに繋がる。
論文 参考訳(メタデータ) (2020-06-18T14:17:29Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。