論文の概要: On RKHS Choices for Assessing Graph Generators via Kernel Stein
Statistics
- arxiv url: http://arxiv.org/abs/2210.05746v1
- Date: Tue, 11 Oct 2022 19:23:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 12:59:08.204276
- Title: On RKHS Choices for Assessing Graph Generators via Kernel Stein
Statistics
- Title(参考訳): カーネルスタイン統計を用いたグラフ生成器評価のためのRKHS選択について
- Authors: Moritz Weckbecker, Wenkai Xu, Gesine Reinert
- Abstract要約: ランダムネットワークモデルのKSDテストにおけるRKHS選択の効果を評価する。
本研究では,異なるシナリオにおけるテストのパワーパフォーマンスと計算実行時間について検討する。
- 参考スコア(独自算出の注目度): 8.987015146366216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Score-based kernelised Stein discrepancy (KSD) tests have emerged as a
powerful tool for the goodness of fit tests, especially in high dimensions;
however, the test performance may depend on the choice of kernels in an
underlying reproducing kernel Hilbert space (RKHS). Here we assess the effect
of RKHS choice for KSD tests of random networks models, developed for
exponential random graph models (ERGMs) in Xu and Reinert (2021)and for
synthetic graph generators in Xu and Reinert (2022). We investigate the power
performance and the computational runtime of the test in different scenarios,
including both dense and sparse graph regimes. Experimental results on kernel
performance for model assessment tasks are shown and discussed on synthetic and
real-world network applications.
- Abstract(参考訳): スコアベースのkernelized stein discrepancy (ksd) テストは、特に高次元において適合テストの良さの強力なツールとして登場したが、テストの性能は、基礎となる再生核ヒルベルト空間(英語版)(rkhs)におけるカーネルの選択に依存する可能性がある。
本稿では,Xu と Reinert (2021) の指数乱数グラフモデル (ERGM) と Xu と Reinert (2022) の合成グラフ生成器に対して開発されたランダムネットワークモデルの KSD 試験における RKHS 選択の効果を評価する。
高密度グラフとスパースグラフの両方を含む異なるシナリオで、テストのパワーパフォーマンスと計算ランタイムを調査した。
モデルアセスメントタスクのカーネル性能に関する実験結果を示し、合成および実世界のネットワークアプリケーション上で議論した。
関連論文リスト
- Optimal Kernel Choice for Score Function-based Causal Discovery [92.65034439889872]
本稿では,データに最も適合する最適なカーネルを自動的に選択する,一般化スコア関数内のカーネル選択手法を提案する。
合成データと実世界のベンチマークの両方で実験を行い,提案手法がカーネル選択法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-14T09:32:20Z) - Minimax Optimal Goodness-of-Fit Testing with Kernel Stein Discrepancy [13.429541377715298]
我々は、カーネル化されたStein discrepancy (KSD) を用いた一般領域における適合性試験の極小最適性について検討する。
KSDフレームワークは、優れたテストのための柔軟なアプローチを提供し、強い分散仮定を避けます。
未知のパラメータに適応することで、対数係数まで最小限の最適性を達成できる適応テストを導入する。
論文 参考訳(メタデータ) (2024-04-12T07:06:12Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - A Fourier representation of kernel Stein discrepancy with application to
Goodness-of-Fit tests for measures on infinite dimensional Hilbert spaces [6.437931786032493]
Kernel Stein discrepancy (KSD) は、確率測度間の差異のカーネルベースの尺度である。
我々は、分離可能なヒルベルト空間に横たわるデータの一般性において、KSDを初めて解析する。
これにより、KSDが測定を分離できることを証明できるので、実際は有効である。
論文 参考訳(メタデータ) (2022-06-09T15:04:18Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Hybrid Random Features [60.116392415715275]
ハイブリッドランダム特徴(HRF)と呼ばれるソフトマックスとガウス核の線形化のための新しいランダム特徴法を提案する。
HRFは、カーネル推定の品質を自動的に適応し、定義された関心領域の最も正確な近似を提供する。
論文 参考訳(メタデータ) (2021-10-08T20:22:59Z) - Generalised Kernel Stein Discrepancy(GKSD): A Unifying Approach for
Non-parametric Goodness-of-fit Testing [5.885020100736158]
KSD(Non-parametric Goodness-of-fit testing procedure)は、一般的な非正規分布を検証するための有望なアプローチである。
我々は,KSDに基づく適合性テストの実行において,異なるStein演算子を理論的に比較・解釈するための統一フレームワークである一般化カーネルSteindisrepancy(GKSD)を提案する。
論文 参考訳(メタデータ) (2021-06-23T00:44:31Z) - A Stein Goodness of fit Test for Exponential Random Graph Models [5.885020100736158]
交換可能な指数的ランダムグラフモデルに対する適合試験手法の新たな非パラメトリック良性を提案し,解析する。
このテストは、ターゲットの非正規化ERGM密度から観測が生成される確率を決定する。
論文 参考訳(メタデータ) (2021-02-28T18:16:41Z) - Kernel Stein Generative Modeling [68.03537693810972]
グラディエント・ランゲヴィン・ダイナミクス(SGLD)は高次元および複雑なデータ分布に関するエネルギーモデルによる印象的な結果を示す。
Stein Variational Gradient Descent (SVGD) は、与えられた分布を近似するために一組の粒子を反復的に輸送する決定論的サンプリングアルゴリズムである。
雑音条件付きカーネルSVGD(NCK-SVGD)を提案する。
論文 参考訳(メタデータ) (2020-07-06T21:26:04Z) - Sliced Kernelized Stein Discrepancy [17.159499204595527]
Kernelized Stein discrepancy (KSD) は、良質なテストやモデル学習に広く用いられている。
最適一次元射影上に定義されたカーネルベースのテスト関数を用いるスライスされたスタイン差分とそのスケーラブルでカーネル化された変種を提案する。
モデル学習においては,異なる相違点を持つ独立成分分析モデルを訓練することにより,既存のSteinの相違点ベースラインに対してその優位性を示す。
論文 参考訳(メタデータ) (2020-06-30T04:58:55Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。