論文の概要: Lost in the Shuffle: Testing Power in the Presence of Errorful Network
Vertex Labels
- arxiv url: http://arxiv.org/abs/2208.08638v1
- Date: Thu, 18 Aug 2022 05:27:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:56:22.058646
- Title: Lost in the Shuffle: Testing Power in the Presence of Errorful Network
Vertex Labels
- Title(参考訳): lost in the shuffle: エラーの多いネットワーク頂点ラベルの存在下でのテストパワー
- Authors: Ayushi Saxena and Vince Lyzinski
- Abstract要約: 本研究では,2サンプルグラフ仮説において,不整合/ラベルシャッフルネットワークが存在する場合の電力劣化を考察する。
我々は、神経科学とソーシャルネットワーク分析の2つの例において、シャッフルが実データテストにもたらす影響を実証する。
- 参考スコア(独自算出の注目度): 6.851715331085054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many two-sample network hypothesis testing methodologies operate under the
implicit assumption that the vertex correspondence across networks is a priori
known. In this paper, we consider the degradation of power in two-sample graph
hypothesis testing when there are misaligned/label-shuffled vertices across
networks. In the context of stochastic block model networks, we theoretically
explore the power loss due to shuffling for a pair of hypothesis tests based on
Frobenius norm differences between estimated edge probability matrices or
between adjacency matrices. The loss in testing power is further reinforced by
numerous simulations and experiments, both in the stochastic block model and in
the random dot product graph model, where we compare the power loss across
multiple recently proposed tests in the literature. Lastly, we demonstrate the
impact that shuffling can have in real-data testing in a pair of examples from
neuroscience and from social network analysis.
- Abstract(参考訳): 多くの2つのサンプルネットワーク仮説テスト手法は、ネットワーク間の頂点対応が既知であるという暗黙の仮定の下で動作する。
本稿では,ネットワーク間の不整合/ラベルシャッフルの頂点が存在する場合の2サンプルグラフ仮説テストにおけるパワー低下について考察する。
確率的ブロックモデルネットワークの文脈では、推定エッジ確率行列と隣接行列との間のFrobeniusノルム差に基づく一対の仮説テストのシャッフルによるパワー損失を理論的に探索する。
テストパワーの損失は、確率ブロックモデルとランダムドット積グラフモデルの両方において多くのシミュレーションや実験によってさらに強化され、最近提案された複数のテスト間でのパワー損失を比較する。
最後に、神経科学とソーシャルネットワーク分析の2つの例において、シャッフルが実データテストにもたらす影響を実証する。
関連論文リスト
- Network two-sample test for block models [16.597465729143813]
2組のネットワークが同じモデルに由来するかどうかを判定することを目的とするネットワークの2サンプルテスト問題を考える。
ネットワーク分布にブロックモデル(SBM)を適用するのは,その解釈可能性と,より一般的なモデルに近似する可能性からである。
推定されたネットワークパラメータにマッチする効率的なアルゴリズムを導入し、サンプル内およびサンプル間の情報を適切に組み合わせ、コントラスト化することで、強力なテストを実現する。
論文 参考訳(メタデータ) (2024-06-10T04:28:37Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Learning to Increase the Power of Conditional Randomization Tests [8.883733362171032]
モデル-X条件ランダム化テストは、条件独立性テストのための一般的なフレームワークである。
本稿では,モデルXテストのパワー向上を目的とした新しいモデル適合方式を提案する。
論文 参考訳(メタデータ) (2022-07-03T12:29:25Z) - Sequential Permutation Testing of Random Forest Variable Importance
Measures [68.8204255655161]
そこで本研究では、逐次置換テストと逐次p値推定を用いて、従来の置換テストに関連する高い計算コストを削減することを提案する。
シミュレーション研究の結果、シーケンシャルテストの理論的性質が当てはまることを確認した。
本手法の数値安定性を2つの応用研究で検討した。
論文 参考訳(メタデータ) (2022-06-02T20:16:50Z) - Predicting Unreliable Predictions by Shattering a Neural Network [145.3823991041987]
線形ニューラルネットワークは、サブファンクションに分割することができる。
サブファンクションは、独自のアクティベーションパターン、ドメイン、経験的エラーを持っている。
完全なネットワークに対する経験的エラーは、サブファンクションに対する期待として記述できる。
論文 参考訳(メタデータ) (2021-06-15T18:34:41Z) - Hypothesis Testing for Equality of Latent Positions in Random Graphs [0.2741266294612775]
2つの頂点 $i$ と $j$th が、おそらくスケーリングまで、同じ潜在位置を持つという仮説テストの問題を考える。
グラフの隣接性または正規化ラプラシアンスペクトル埋め込みのいずれかのi$th行とj$th行の間の経験的マハラノビス距離に基づくいくつかのテスト統計について提案する。
これらのテスト統計を用いて、標準ブロックモデルとその次数補正変種を選択する際のモデル選択問題に対処する。
論文 参考訳(メタデータ) (2021-05-23T01:27:23Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Significance tests of feature relevance for a blackbox learner [6.72450543613463]
ブラックボックス学習者の特徴関連性に関する2つの一貫した試験を導出する。
第1は、推論サンプルの摂動による損失差を評価する。
2つ目は推論サンプルを2つに分割するが、データの摂動は必要ない。
論文 参考訳(メタデータ) (2021-03-02T00:59:19Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Asymptotic Validity and Finite-Sample Properties of Approximate Randomization Tests [2.28438857884398]
我々の理論的な重要な貢献は、ノイズレスデータを用いた近似ランダム化テストのサイズと元のランダム化テストのサイズとの差に非漸近的境界を持つことである。
線形回帰における有意性のテストを含むいくつかの例を通して、我々の理論を解説する。
論文 参考訳(メタデータ) (2019-08-12T16:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。