論文の概要: Regularized $f$-Divergence Kernel Tests
- arxiv url: http://arxiv.org/abs/2601.19755v1
- Date: Tue, 27 Jan 2026 16:15:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.389763
- Title: Regularized $f$-Divergence Kernel Tests
- Title(参考訳): 正規化$f$-divergenceカーネルテスト
- Authors: Mónica Ribero, Antonin Schrab, Arthur Gretton,
- Abstract要約: 本稿では,$f$-divergences のファミリからカーネルベースの2サンプルテストを構築するためのフレームワークを提案する。
統計的テストパワーの理論的保証として$f$-divergenceの推定を行う。
機械学習において,真の学習失敗を安全な分布変動と区別する相対的テストを提案する。
- 参考スコア(独自算出の注目度): 24.182732872327183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a framework to construct practical kernel-based two-sample tests from the family of $f$-divergences. The test statistic is computed from the witness function of a regularized variational representation of the divergence, which we estimate using kernel methods. The proposed test is adaptive over hyperparameters such as the kernel bandwidth and the regularization parameter. We provide theoretical guarantees for statistical test power across our family of $f$-divergence estimates. While our test covers a variety of $f$-divergences, we bring particular focus to the Hockey-Stick divergence, motivated by its applications to differential privacy auditing and machine unlearning evaluation. For two-sample testing, experiments demonstrate that different $f$-divergences are sensitive to different localized differences, illustrating the importance of leveraging diverse statistics. For machine unlearning, we propose a relative test that distinguishes true unlearning failures from safe distributional variations.
- Abstract(参考訳): 本稿では,$f$-divergences のファミリからカーネルベースの2サンプルテストを構築するためのフレームワークを提案する。
テスト統計は、カーネル法を用いて推定した分散の正規化変分表現の証人関数から算出される。
提案したテストは、カーネル帯域幅や正規化パラメータなどのハイパーパラメータに適応する。
統計的テストパワーの理論的保証として$f$-divergenceの推定を行う。
我々のテストは様々な$f$-divergencesをカバーしていますが、その応用が差分プライバシー監査や機械学習の非学習評価に動機づけられたHockey-Stickの分岐に特に焦点をあてています。
2サンプルの試験では、異なる$f$-divergencesが異なる局所的な差異に敏感であることを示し、多様な統計を活用することの重要性を示している。
機械学習において,真の学習失敗を安全な分布変動と区別する相対的テストを提案する。
関連論文リスト
- DUAL: Learning Diverse Kernels for Aggregated Two-sample and Independence Testing [21.083713063070586]
本稿では,異なるカーネル間の共分散に基づいて,カーネルの多様性を明示的に組み込んだ集計統計モデルを提案する。
これは、トレーニングフェーズの情報を活用して、個々のパフォーマンスの高いカーネルを選択する、選択推論によるテストフレームワークのモチベーションである。
論文 参考訳(メタデータ) (2025-10-13T08:30:42Z) - Kernel conditional tests from learning-theoretic bounds [16.813275168865953]
本研究では,条件付き確率分布の仮説テストのためのフレームワークを提案する。
次に、条件分布の関数の統計的テストを構築する。
本研究は,機能検査の総合的基盤を構築した。
論文 参考訳(メタデータ) (2025-06-04T12:53:13Z) - Learning Representations for Independence Testing [13.842061060076004]
本稿では, 相互情報の変動推定器を用いて, 有限サンプル妥当性を持つ強力なテストを構築する方法を示す。
第2に,Hilbert-Schmidt Independence Criterion(HSIC)に基づくこれらの変分的相互情報ベーステストとテストの密接な関係を確立する。
最後に、統計量自体を最大化する表現を選択するのではなく、テストのパワーを最大化する表現を選択する方法を示す。
論文 参考訳(メタデータ) (2024-09-10T22:18:07Z) - Collaborative non-parametric two-sample testing [55.98760097296213]
目標は、null仮説の$p_v = q_v$が拒否されるノードを特定することである。
グラフ構造を効率的に活用する非パラメトリックコラボレーティブ2サンプルテスト(CTST)フレームワークを提案する。
提案手法は,f-divergence Estimation, Kernel Methods, Multitask Learningなどの要素を統合する。
論文 参考訳(メタデータ) (2024-02-08T14:43:56Z) - Selective Nonparametric Regression via Testing [54.20569354303575]
本研究では,所定の点における条件分散の値に関する仮説を検証し,留置手順を開発する。
既存の手法とは異なり、提案手法は分散自体の値だけでなく、対応する分散予測器の不確実性についても考慮することができる。
論文 参考訳(メタデータ) (2023-09-28T13:04:11Z) - Near-Optimal Non-Parametric Sequential Tests and Confidence Sequences
with Possibly Dependent Observations [44.71254888821376]
我々は、一般的な非データ生成プロセスの下で、最初のタイプIエラーと予測リジェクション時間保証を提供する。
本研究では, 平均処理効果など, 方程式を推定することによって定義されるパラメータの推測に, 結果を適用する方法を示す。
論文 参考訳(メタデータ) (2022-12-29T18:37:08Z) - Nonparametric Conditional Local Independence Testing [69.31200003384122]
条件付き局所独立は、連続的な時間プロセス間の独立関係である。
条件付き地域独立の非パラメトリックテストは行われていない。
二重機械学習に基づく非パラメトリックテストを提案する。
論文 参考訳(メタデータ) (2022-03-25T10:31:02Z) - Learn then Test: Calibrating Predictive Algorithms to Achieve Risk
Control [67.52000805944924]
Learn then Test (LTT)は、機械学習モデルを校正するフレームワークである。
私たちの主な洞察は、リスクコントロール問題を複数の仮説テストとして再設計することです。
我々は、コンピュータビジョンの詳細な実例を用いて、コア機械学習タスクの新しいキャリブレーション手法を提供するために、我々のフレームワークを使用します。
論文 参考訳(メタデータ) (2021-10-03T17:42:03Z) - An Optimal Witness Function for Two-Sample Testing [13.159512679346685]
証人2サンプルテスト(WiTS)と呼ばれる1次元証人関数に基づくデータ依存テスト統計法を提案する。
特性カーネルに基づく WiTS テストは,任意の固定された代替品に対して一貫したものであることを示す。
論文 参考訳(メタデータ) (2021-02-10T17:13:21Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。