論文の概要: Testing Sparsity Assumptions in Bayesian Networks
- arxiv url: http://arxiv.org/abs/2307.06406v1
- Date: Wed, 12 Jul 2023 18:46:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 16:49:46.668569
- Title: Testing Sparsity Assumptions in Bayesian Networks
- Title(参考訳): ベイジアンネットワークにおける空間推定のテスト
- Authors: Luke Duttweiler, Sally W. Thurston, and Anthony Almudevar
- Abstract要約: 本稿では、BN が 1 より大きい次数で最大値を持つかどうかを判断するために用いられる仮説テストの特性と偏りの過程について述べる。
この仮説を用いて適切な構造探索アルゴリズムを選択するのに役立つ線形BN構造探索ワークフローを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian network (BN) structure discovery algorithms typically either make
assumptions about the sparsity of the true underlying network, or are limited
by computational constraints to networks with a small number of variables.
While these sparsity assumptions can take various forms, frequently the
assumptions focus on an upper bound for the maximum in-degree of the underlying
graph $\nabla_G$. Theorem 2 in Duttweiler et. al. (2023) demonstrates that the
largest eigenvalue of the normalized inverse covariance matrix ($\Omega$) of a
linear BN is a lower bound for $\nabla_G$. Building on this result, this paper
provides the asymptotic properties of, and a debiasing procedure for, the
sample eigenvalues of $\Omega$, leading to a hypothesis test that may be used
to determine if the BN has max in-degree greater than 1. A linear BN structure
discovery workflow is suggested in which the investigator uses this hypothesis
test to aid in selecting an appropriate structure discovery algorithm. The
hypothesis test performance is evaluated through simulations and the workflow
is demonstrated on data from a human psoriasis study.
- Abstract(参考訳): ベイズネットワーク (BN) 構造探索アルゴリズムは通常、真の基盤ネットワークの空間性について仮定するか、少数の変数を持つネットワークに対する計算制約によって制限される。
これらのスパース性仮定は様々な形式をとることができるが、仮定はしばしば、基礎となるグラフ $\nabla_G$ の最大 in-次における上限に焦点をあてる。
Theorem 2 in Duttweiler et。
al. (2023) は、線型BN の正規化逆共分散行列 (\Omega$) の最大の固有値は$\nabla_G$ の下界であることを示した。
この結果に基づいて, bn が 1 以上の最大次数を持つかどうかを判定するための仮説検定を行うために, サンプル固有値 $\omega$ の漸近的性質, 偏微分手順を提供する。
線形bn構造発見ワークフローでは、研究者がこの仮説テストを用いて適切な構造発見アルゴリズムを選択することを支援する。
仮説テスト性能をシミュレーションにより評価し,ヒト乾息研究のデータに基づいてワークフローを実演する。
関連論文リスト
- Minimax Hypothesis Testing for the Bradley-Terry-Luce Model [6.5990719141691825]
ブラッドリー・テリー・ルーシ(Bradley-Terry-Luce、BTL)モデルは、アイテムやエージェントのコレクションをランク付けする最も広く使われているモデルの一つである。
与えられたペア比較データセットとエージェントペアあたりの$k$の比較が、基礎となるBTLモデルに由来するかどうかを判定する仮説テストを提案する。
論文 参考訳(メタデータ) (2024-10-10T20:28:05Z) - Bayesian Approach to Linear Bayesian Networks [3.8711489380602804]
提案手法は, 部分共分散行列の逆数を用いて, 位相次数の各要素を逆方向と親方向から反復的に推定する。
提案手法は,BHLSM,LISTEN,TDアルゴリズムといった最先端の頻繁な手法より合成データの方が優れていることを示す。
論文 参考訳(メタデータ) (2023-11-27T08:10:53Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Validation Diagnostics for SBI algorithms based on Normalizing Flows [55.41644538483948]
本研究は,NFに基づく多次元条件(後)密度推定器の検証診断を容易にすることを提案する。
また、局所的な一貫性の結果に基づいた理論的保証も提供する。
この作業は、より良い特定モデルの設計を支援したり、新しいSBIアルゴリズムの開発を促進するのに役立つだろう。
論文 参考訳(メタデータ) (2022-11-17T15:48:06Z) - SIMPLE-RC: Group Network Inference with Non-Sharp Nulls and Weak Signals [8.948321043168455]
非シャープなヌル仮説をテストするために,確率結合型SIMPLE法(SIMPLE-RC)を提案する。
サブサンプリングノード対に対するSIMPLEテストの最大値として,本テストを構築した。
新しい理論の発展は、$ell_infty$-normの下でスパイクされた固有ベクトルの2階展開によって促進される。
論文 参考訳(メタデータ) (2022-10-31T20:36:24Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Predicting Unreliable Predictions by Shattering a Neural Network [145.3823991041987]
線形ニューラルネットワークは、サブファンクションに分割することができる。
サブファンクションは、独自のアクティベーションパターン、ドメイン、経験的エラーを持っている。
完全なネットワークに対する経験的エラーは、サブファンクションに対する期待として記述できる。
論文 参考訳(メタデータ) (2021-06-15T18:34:41Z) - Structure Learning in Inverse Ising Problems Using $\ell_2$-Regularized
Linear Estimator [8.89493507314525]
モデルミスマッチにも拘わらず,正則化を伴わずに線形回帰を用いてネットワーク構造を完璧に識別できることを示す。
本稿では,2段階推定器を提案する。第1段階では隆起回帰を用い,比較的小さな閾値で推算を行う。
適切な正規化係数としきい値を持つ推定器は、0M/N1$でもネットワーク構造の完全同定を実現する。
論文 参考訳(メタデータ) (2020-08-19T09:11:33Z) - On the Convergence Rate of Projected Gradient Descent for a
Back-Projection based Objective [58.33065918353532]
我々は、最小二乗(LS)の代替として、バックプロジェクションに基づく忠実度項を考える。
LS項ではなくBP項を用いることで最適化アルゴリズムの繰り返しを少なくすることを示す。
論文 参考訳(メタデータ) (2020-05-03T00:58:23Z) - A Neural Network Based on First Principles [13.554038901140949]
ニューラルネットワークは、各層が線形次元還元変換から始まると仮定して、第一原理から導かれる。
この手法は最大エントロピー(MaxEnt)の原理に訴え、各層の入力データの後方分布を求める。
論文 参考訳(メタデータ) (2020-02-18T10:16:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。