論文の概要: On the Theoretical Properties of the Network Jackknife
- arxiv url: http://arxiv.org/abs/2004.08935v2
- Date: Tue, 21 Apr 2020 08:53:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 00:43:14.385683
- Title: On the Theoretical Properties of the Network Jackknife
- Title(参考訳): ネットワークjackknifeの理論的性質について
- Authors: Qiaohui Lin, Robert Lunde, Purnamrita Sarkar
- Abstract要約: 本研究は,ネットワークデータに対する残留ノードアウト型ジャックナイフプロシージャの特性について検討する。
ネットワークジャックナイフは,他の再サンプリング手法が有効であることが分かっている場合の競合性能を示す。
- 参考スコア(独自算出の注目度): 13.664682865991256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the properties of a leave-node-out jackknife procedure for network
data. Under the sparse graphon model, we prove an Efron-Stein-type inequality,
showing that the network jackknife leads to conservative estimates of the
variance (in expectation) for any network functional that is invariant to node
permutation. For a general class of count functionals, we also establish
consistency of the network jackknife. We complement our theoretical analysis
with a range of simulated and real-data examples and show that the network
jackknife offers competitive performance in cases where other resampling
methods are known to be valid. In fact, for several network statistics, we see
that the jackknife provides more accurate inferences compared to related
methods such as subsampling.
- Abstract(参考訳): 本研究は,ネットワークデータに対する残留ノードアウトジャックナイフプロシージャの特性について検討する。
スパースグラフトンモデルの下では、Efron-Stein型不等式を証明し、ネットワークジャックニフェがノード置換に不変な任意のネットワーク汎関数に対する分散(期待)の保守的な推定を導くことを示す。
カウント汎関数の一般的なクラスでは、ネットワークjackknifeの一貫性も確立します。
我々は,シミュレーションおよび実データを用いた理論解析を補完し,ネットワークジャックニフェが他の再サンプリング手法が有効な場合の競合性能を示すことを示す。
実際、いくつかのネットワーク統計では、jackknifeはサブサンプリングのような関連するメソッドよりも正確な推論を提供する。
関連論文リスト
- Scale-free networks: improved inference [0.0]
本稿では,ベイズ推定を用いて正確な推定値と正確な信頼性区間を求める手法について考察する。
提案手法を5000以上の合成ネットワークと3,000以上の実ネットワークに対して適合度分布に適用する。
論文 参考訳(メタデータ) (2023-11-19T02:26:16Z) - Going Beyond Neural Network Feature Similarity: The Network Feature
Complexity and Its Interpretation Using Category Theory [64.06519549649495]
機能的に等価な機能と呼ぶものの定義を提供します。
これらの特徴は特定の変換の下で等価な出力を生成する。
反復的特徴マージ(Iterative Feature Merging)というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-10T16:27:12Z) - Fitting Low-rank Models on Egocentrically Sampled Partial Networks [4.111899441919165]
本稿では,egocentricly sampled network に対する一般的な低ランクモデルに適合する手法を提案する。
この手法は、エゴセントリックな部分的ネットワーク推定に関する最初の理論的保証を提供する。
本手法を複数の合成および実世界のネットワーク上で評価し,リンク予測タスクにおいて競合性能を実現することを示す。
論文 参考訳(メタデータ) (2023-03-09T03:20:44Z) - Conformal Prediction for Network-Assisted Regression [4.680225499436733]
ネットワーク解析における重要な問題は、両方のネットワーク共変量を用いてノード属性を予測することである。
ネットワークアナログは, 弱い結合交換可能性仮定の下で, 広範囲のネットワーク共変量に対して有限の妥当性を達成できることを示す。
これらの手法は、シミュレーションネットワークと引用ネットワークデータセットの両方で説明される。
論文 参考訳(メタデータ) (2023-02-20T16:58:16Z) - A Theoretical View on Sparsely Activated Networks [21.156069843782017]
本稿では、一般的なアーキテクチャの健全な側面を捉えるデータ依存スパースネットワークの形式モデルを提案する。
次に、LSH(Locality sensitive hashing)に基づくルーティング関数を導入し、スパースネットワークがターゲット関数をどの程度うまく近似するかを判断する。
スパースネットワークはリプシッツ関数上の高密度ネットワークの近似力と一致することが証明できる。
論文 参考訳(メタデータ) (2022-08-08T23:14:48Z) - Predicting Unreliable Predictions by Shattering a Neural Network [145.3823991041987]
線形ニューラルネットワークは、サブファンクションに分割することができる。
サブファンクションは、独自のアクティベーションパターン、ドメイン、経験的エラーを持っている。
完全なネットワークに対する経験的エラーは、サブファンクションに対する期待として記述できる。
論文 参考訳(メタデータ) (2021-06-15T18:34:41Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - Edgeworth expansions for network moments [20.058158445038824]
We present the first higher-order accurate approximation to the sample CDF of a studentized network moment by Edgeworth expansion。
スパースネットワークの場合、単純な正規近似は、ネットワークがスペーサーになるにつれて、徐々に劣化するベリー・エッシー境界を実現する。
論文 参考訳(メタデータ) (2020-04-14T16:02:26Z) - Proving the Lottery Ticket Hypothesis: Pruning is All You Need [56.25432563818297]
抽選券仮説では、ランダムなdネットワークには、独立した訓練を受けた場合、元のネットワークの性能と競合する小さなサブネットワークが含まれている。
我々は、全ての有界分布と、有界重みを持つ全ての対象ネットワークに対して、ランダム重みを持つ十分に過度にパラメータ化されたニューラルネットワークは、目標ネットワークとほぼ同じ精度のサブネットワークを、それ以上のトレーニングなしに含んでいることを証明し、さらに強い仮説を証明した。
論文 参考訳(メタデータ) (2020-02-03T07:23:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。