論文の概要: Global Sensitivity Analysis of Uncertain Parameters in Bayesian Networks
- arxiv url: http://arxiv.org/abs/2406.05764v1
- Date: Sun, 9 Jun 2024 12:36:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 18:07:23.213265
- Title: Global Sensitivity Analysis of Uncertain Parameters in Bayesian Networks
- Title(参考訳): ベイズネットワークにおける不確かさパラメータの大域的感度解析
- Authors: Rafael Ballester-Ripoll, Manuele Leonelli,
- Abstract要約: 我々は,大域的分散に基づくパラメータの感度分析を行う。
我々の方法は不確実性をネットワークの$n$追加変数としてエンコードすることで機能する。
最後に、結果のネットワークにSobolの手法を適用して、グローバルな感度指標を$n$とする。
- 参考スコア(独自算出の注目度): 4.404496835736175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditionally, the sensitivity analysis of a Bayesian network studies the impact of individually modifying the entries of its conditional probability tables in a one-at-a-time (OAT) fashion. However, this approach fails to give a comprehensive account of each inputs' relevance, since simultaneous perturbations in two or more parameters often entail higher-order effects that cannot be captured by an OAT analysis. We propose to conduct global variance-based sensitivity analysis instead, whereby $n$ parameters are viewed as uncertain at once and their importance is assessed jointly. Our method works by encoding the uncertainties as $n$ additional variables of the network. To prevent the curse of dimensionality while adding these dimensions, we use low-rank tensor decomposition to break down the new potentials into smaller factors. Last, we apply the method of Sobol to the resulting network to obtain $n$ global sensitivity indices. Using a benchmark array of both expert-elicited and learned Bayesian networks, we demonstrate that the Sobol indices can significantly differ from the OAT indices, thus revealing the true influence of uncertain parameters and their interactions.
- Abstract(参考訳): 伝統的に、ベイズネットワークの感度解析は、条件付き確率表のエントリを1対1(OAT)方式で個別に修正する影響を研究する。
しかし、2つ以上のパラメータの同時摂動は、OAT分析では捉えられない高次効果を伴うことが多いため、このアプローチでは、各入力の関連性に関する包括的な説明が得られない。
そこで本研究では,グローバルな分散に基づく感度分析を行い,パラメータを一度に不確実とみなし,その重要性を共同で評価する。
我々の方法は不確実性をネットワークの$n$追加変数としてエンコードすることで機能する。
これらの次元を追加しながら次元の呪いを防ぐため、我々は低ランクテンソル分解を用いて新しいポテンシャルを小さな要素に分解する。
最後に、結果のネットワークにSobolの手法を適用して、グローバルな感度指標を$n$とする。
専門家によるベイジアンネットワークと学習されたベイジアンネットワークのベンチマークアレイを用いて、ソボル指標がOAT指標と大きく異なることを示し、不確実なパラメータとその相互作用の真の影響を明らかにする。
関連論文リスト
- A new paradigm for global sensitivity analysis [0.0]
グローバル感度分析の現在の理論はスコープに限られており、例えば、分析は出力の分散に限られている。
これらの重要な問題は,新しいパラダイムを採用することで,一度に解決できることが示されている。
論文 参考訳(メタデータ) (2024-09-10T07:20:51Z) - The diameter of a stochastic matrix: A new measure for sensitivity analysis in Bayesian networks [1.2699007098398807]
我々は、慣れ親しんだ全変動距離に基づくロバストネス法は、不特定性に対するロバストネスに、よりシンプルで価値のある境界をもたらすと論じる。
このような境界を導出するために、直径と呼ばれる条件付き確率表への依存の新たな尺度を導入する。
論文 参考訳(メタデータ) (2024-07-05T17:22:12Z) - Generalization Guarantees of Gradient Descent for Multi-Layer Neural
Networks [55.86300309474023]
多層NNに対する勾配降下(GD)の総合的安定性と一般化解析を行う。
2層NNと3層NNの両方において、GDアルゴリズムに対するO(1/sqrtn)$の過剰リスク率を導出する。
論文 参考訳(メタデータ) (2023-05-26T12:51:38Z) - The YODO algorithm: An efficient computational framework for sensitivity
analysis in Bayesian networks [5.33024001730262]
感度分析は、ベイズネットワークのパラメータがネットワークによって定義された関心量に与える影響を測定する。
本稿では,自動微分と精度推定を組み合わせたアルゴリズムを提案し,単一パスにおける感度測定を効率的に計算する。
本手法は,一方向・多方向感度解析と許容領域の導出に利用できる。
論文 参考訳(メタデータ) (2023-02-01T10:47:31Z) - You Only Derive Once (YODO): Automatic Differentiation for Efficient
Sensitivity Analysis in Bayesian Networks [5.33024001730262]
感度分析は、ベイズネットワークのパラメータがネットワークによって定義された関心量に与える影響を測定する。
そこで本稿では,自動微分と正確な推論を併用して,1回のパスですべての感度値を得る手法を提案する。
一般的な機械学習ライブラリであるPyTorchを使ったメソッドの実装は無料で利用可能である。
論文 参考訳(メタデータ) (2022-06-17T11:11:19Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - On the Pitfalls of Heteroscedastic Uncertainty Estimation with
Probabilistic Neural Networks [23.502721524477444]
このアプローチがいかにして非常に貧弱だが安定な推定に繋がるかを示す合成例を示す。
問題を悪化させる特定の条件とともに、犯人をログライクな損失とみなす。
我々は、損失に対する各データポイントの寄与を、$beta$-exponentiated variance estimateによって重み付けする、$beta$-NLLと呼ばれる別の定式化を提案する。
論文 参考訳(メタデータ) (2022-03-17T08:46:17Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Network Moments: Extensions and Sparse-Smooth Attacks [59.24080620535988]
ガウス入力を受ける小片方向線形(PL)ネットワーク(Affine,ReLU,Affine)の第1モーメントと第2モーメントの正確な解析式を導出する。
本研究では,新しい分散式を効率的に近似し,より厳密な分散推定を行うことを示す。
論文 参考訳(メタデータ) (2020-06-21T11:36:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。