論文の概要: Trading off Accuracy for Speedup: Multiplier Bootstraps for Subgraph
Counts
- arxiv url: http://arxiv.org/abs/2009.06170v5
- Date: Thu, 7 Apr 2022 19:33:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 13:00:04.208153
- Title: Trading off Accuracy for Speedup: Multiplier Bootstraps for Subgraph
Counts
- Title(参考訳): スピードアップの正確さのトレーディング:サブグラフ数に対する乗算ブートストラップ
- Authors: Qiaohui Lin, Robert Lunde, Purnamrita Sarkar
- Abstract要約: カウント関数のための新しい乗算ブートストラップを提案する。
高速で近似的な線形ブートストラップでは、$sqrtn$-consistent inference of the count functional is able to be able in certain computer regimes。
二次ブートストラップでは,Edgeworth拡張が確立され,適切な空間条件下での高次精度が得られた。
- 参考スコア(独自算出の注目度): 13.664682865991256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new class of multiplier bootstraps for count functionals,
ranging from a fast, approximate linear bootstrap tailored to sparse, massive
graphs to a quadratic bootstrap procedure that offers refined accuracy for
smaller, denser graphs. For the fast, approximate linear bootstrap, we show
that $\sqrt{n}$-consistent inference of the count functional is attainable in
certain computational regimes that depend on the sparsity level of the graph.
Furthermore, even in more challenging regimes, we prove that our bootstrap
procedure offers valid coverage and vanishing confidence intervals. For the
quadratic bootstrap, we establish an Edgeworth expansion and show that this
procedure offers higher-order accuracy under appropriate sparsity conditions.
We complement our theoretical results with a simulation study and real data
analysis and verify that our procedure offers state-of-the-art performance for
several functionals.
- Abstract(参考訳): 本稿では,数値関数のための新しいマルチプライアブートストラップのクラスを提案する。高速で近似的な線形ブートストラップから,疎大なグラフまで,より小型で高密度なグラフに対して高精度な2次ブートストラップ手順を提供する。
高速で近似的な線形ブートストラップでは、数値関数の$\sqrt{n}$-consistent inferenceが、グラフの疎度レベルに依存する特定の計算系で達成可能であることを示す。
さらに、より困難な状況でも、ブートストラップ手順が有効なカバレッジを提供し、信頼区間をなくすことを証明します。
二次ブートストラップでは,Edgeworth拡張が確立され,適切な空間条件下での高次精度が得られた。
シミュレーション研究と実データ解析により理論結果を補完し,いくつかの機能に対して最先端の性能を提供することを確認した。
関連論文リスト
- Orthogonal Bootstrap: Efficient Simulation of Input Uncertainty [12.43391454956318]
我々は,必要なモンテカルロ複製数を削減できる textbfOrthogonal Bootstrap という新しい手法を提案する。
理論的,数値的には,Orthogonal BootstrapはBootstrapの計算コストを大幅に削減し,経験的精度を向上し,構成間隔の同じ幅を維持する。
論文 参考訳(メタデータ) (2024-04-29T23:08:03Z) - A Specialized Semismooth Newton Method for Kernel-Based Optimal
Transport [92.96250725599958]
カーネルベース最適輸送(OT)推定器は、サンプルからOT問題に対処するための代替的機能的推定手順を提供する。
SSN法は, 標準正規性条件下でのグローバル収束率$O (1/sqrtk)$, 局所二次収束率を達成できることを示す。
論文 参考訳(メタデータ) (2023-10-21T18:48:45Z) - Bures-Wasserstein Means of Graphs [60.42414991820453]
本研究では,スムーズなグラフ信号分布の空間への埋め込みを通じて,グラフ平均を定義する新しいフレームワークを提案する。
この埋め込み空間において平均を求めることにより、構造情報を保存する平均グラフを復元することができる。
我々は,新しいグラフの意味の存在と特異性を確立し,それを計算するための反復アルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-05-31T11:04:53Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Residual Bootstrap Exploration for Stochastic Linear Bandit [33.09784550079342]
線形バンディット問題に対するブートストラップに基づくオンラインアルゴリズムを提案する。
提案した textttLinReBoot は,弱い条件下では $tildeO(d sqrtn)$ sub-linear regret を保証している。
論文 参考訳(メタデータ) (2022-02-23T12:47:12Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Centroid Approximation for Bootstrap [17.617944390196286]
ブートストラップは 原理的かつ強力な 頻繁な統計ツールだ 不確実性定量化のための
標準的なブートストラップ法は、理想的なブートストラップ分布を近似するために大規模なブートストラップサンプルを描く必要があるため、計算集約的である。
本研究では, 最適なブートストラップ分布をより正確に近似するために, 高品質な「セントロイド」点集合を明示的に推定する効率的な手法を提案する。
論文 参考訳(メタデータ) (2021-10-17T04:31:57Z) - Distributed Bootstrap for Simultaneous Inference Under High
Dimensionality [24.19717678204432]
高次元大規模データに対する同時推論のための分散ブートストラップ法を提案する。
この方法は、通信効率の高い脱バイアスラッソに基づく $ell_infty$-norm 信頼領域を生成する。
理論的には、統計的精度と効率性を保証する通信ラウンドの数よりも低いことを証明します。
論文 参考訳(メタデータ) (2021-02-19T18:28:29Z) - Self-Tuning Stochastic Optimization with Curvature-Aware Gradient
Filtering [53.523517926927894]
サンプルごとのHessian-vector積と勾配を用いて、自己チューニングの二次構造を構築する。
モデルに基づく手続きが雑音勾配設定に収束することを証明する。
これは自己チューニング二次体を構築するための興味深いステップである。
論文 参考訳(メタデータ) (2020-11-09T22:07:30Z) - Provably Efficient Reward-Agnostic Navigation with Linear Value
Iteration [143.43658264904863]
我々は、最小二乗値スタイルのアルゴリズムで一般的に使用される、より標準的なベルマン誤差の概念の下での反復が、ほぼ最適値関数の学習において強力なPAC保証を提供することを示す。
そこで本稿では,任意の(線形な)報酬関数に対して,最適に近いポリシーを学習するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-08-18T04:34:21Z) - Laplacian Regularized Few-Shot Learning [35.381119443377195]
少数ショットタスクに対するラプラシアン正規化推論を提案する。
私たちの推論はベースモデルを再トレーニングするものではなく、クエリセットのグラフクラスタリングとして見ることができます。
我々のLaplacianShotは、異なるモデル間で大きなマージンで最先端の手法を一貫して上回ります。
論文 参考訳(メタデータ) (2020-06-28T02:17:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。