論文の概要: Anchor-based Maximum Discrepancy for Relative Similarity Testing
- arxiv url: http://arxiv.org/abs/2510.10477v1
- Date: Sun, 12 Oct 2025 07:03:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.964136
- Title: Anchor-based Maximum Discrepancy for Relative Similarity Testing
- Title(参考訳): 相対的類似性テストのためのアンカーベース最大差分法
- Authors: Zhijian Zhou, Liuhua Peng, Xunye Tian, Feng Liu,
- Abstract要約: 相対的類似性テストは、分布 P または Q のどちらがアンカー分布 U に近いかを決定することを目的としている。
既存のカーネルベースのアプローチは、しばしば、手動で指定された代替仮説において、固定されたカーネルと相対的な類似性をテストする。
本稿では, (U, P) と (U, Q) の距離の相対的類似性を, 深いカーネル空間における (U, P) と (U, Q) の最大差として定義するアンカーベース最大差分(AMD)を提案する。
- 参考スコア(独自算出の注目度): 6.903548360333296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The relative similarity testing aims to determine which of the distributions, P or Q, is closer to an anchor distribution U. Existing kernel-based approaches often test the relative similarity with a fixed kernel in a manually specified alternative hypothesis, e.g., Q is closer to U than P. Although kernel selection is known to be important to kernel-based testing methods, the manually specified hypothesis poses a significant challenge for kernel selection in relative similarity testing: Once the hypothesis is specified first, we can always find a kernel such that the hypothesis is rejected. This challenge makes relative similarity testing ill-defined when we want to select a good kernel after the hypothesis is specified. In this paper, we cope with this challenge via learning a proper hypothesis and a kernel simultaneously, instead of learning a kernel after manually specifying the hypothesis. We propose an anchor-based maximum discrepancy (AMD), which defines the relative similarity as the maximum discrepancy between the distances of (U, P) and (U, Q) in a space of deep kernels. Based on AMD, our testing incorporates two phases. In Phase I, we estimate the AMD over the deep kernel space and infer the potential hypothesis. In Phase II, we assess the statistical significance of the potential hypothesis, where we propose a unified testing framework to derive thresholds for tests over different possible hypotheses from Phase I. Lastly, we validate our method theoretically and demonstrate its effectiveness via extensive experiments on benchmark datasets. Codes are publicly available at: https://github.com/zhijianzhouml/AMD.
- Abstract(参考訳): 既存のカーネルベースのアプローチは、手動で指定された代替仮説、例えば、QはPよりもUに近い。 カーネルの選択は、カーネルベースのテスト手法において重要であることが知られているが、手動で指定された仮説は、相対的な類似性テストにおいてカーネルの選択にとって重要な課題である。
この課題は、仮説が特定された後に良いカーネルを選択したい場合、相対的な類似性テストが不明確になる。
本稿では,仮説を手作業で特定した後にカーネルを学習する代わりに,適切な仮説とカーネルを同時に学習することで,この問題に対処する。
本稿では, (U, P) と (U, Q) の距離の相対的類似性を, 深いカーネル空間における (U, P) と (U, Q) の最大差として定義するアンカーベース最大差分(AMD)を提案する。
AMDに基づくテストでは、2つのフェーズが組み込まれています。
第1相では、深核空間上のAMDを推定し、潜在的な仮説を推測する。
第2相では、仮説の統計的意義を評価し、第1相から異なる仮説に対するテストのしきい値を導出する統合テストフレームワークを提案し、さらに、提案手法を理論的に検証し、ベンチマークデータセット上での広範な実験によりその有効性を実証する。
コードは、https://github.com/zhijianzhouml/AMD.comで公開されている。
関連論文リスト
- A Scalable Nyström-Based Kernel Two-Sample Test with Permutations [9.849635250118912]
2サンプル仮説テストは統計学と機械学習の基本的な問題である。
本研究では,最大平均誤差(MMD)のNystr "om approxation"を用いて,計算効率よく実用的なテストアルゴリズムを設計する。
論文 参考訳(メタデータ) (2025-02-19T09:22:48Z) - Sequential Predictive Two-Sample and Independence Testing [114.4130718687858]
逐次的非パラメトリック2サンプルテストと独立テストの問題点について検討する。
私たちは賭けによる(非パラメトリックな)テストの原則に基づいています。
論文 参考訳(メタデータ) (2023-04-29T01:30:33Z) - Targeted Separation and Convergence with Kernel Discrepancies [61.973643031360254]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - Kernel Robust Hypothesis Testing [20.78285964841612]
本稿では,カーネル方式を用いて不確実性集合をデータ駆動方式で構築する。
目標は、不確実性集合上の最悪のケース分布の下でうまく機能するテストを設計することである。
Neyman-Pearsonの設定では、誤検知の最悪のケース確率を最小限に抑え、誤警報の最悪のケース確率を制約する。
論文 参考訳(メタデータ) (2022-03-23T23:59:03Z) - Meta-Learning Hypothesis Spaces for Sequential Decision-making [79.73213540203389]
オフラインデータ(Meta-KeL)からカーネルをメタ学習することを提案する。
穏やかな条件下では、推定されたRKHSが有効な信頼セットを得られることを保証します。
また,ベイズ最適化におけるアプローチの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2022-02-01T17:46:51Z) - Maximum Mean Discrepancy Test is Aware of Adversarial Attacks [122.51040127438324]
最大平均誤差(MMD)テストは、原則として2つのデータセット間の分布誤差を検出できる。
MMD検査は敵の攻撃に気づいていないことが示されている。
論文 参考訳(メタデータ) (2020-10-22T03:42:12Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。