論文の概要: You Only Derive Once (YODO): Automatic Differentiation for Efficient
Sensitivity Analysis in Bayesian Networks
- arxiv url: http://arxiv.org/abs/2206.08687v1
- Date: Fri, 17 Jun 2022 11:11:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-20 22:17:57.797186
- Title: You Only Derive Once (YODO): Automatic Differentiation for Efficient
Sensitivity Analysis in Bayesian Networks
- Title(参考訳): You Only Derive Once (YODO):ベイジアンネットワークにおける効率的な感度分析のための自動微分
- Authors: Rafael Ballester-Ripoll, Manuele Leonelli
- Abstract要約: 感度分析は、ベイズネットワークのパラメータがネットワークによって定義された関心量に与える影響を測定する。
そこで本稿では,自動微分と正確な推論を併用して,1回のパスですべての感度値を得る手法を提案する。
一般的な機械学習ライブラリであるPyTorchを使ったメソッドの実装は無料で利用可能である。
- 参考スコア(独自算出の注目度): 5.33024001730262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sensitivity analysis measures the influence of a Bayesian network's
parameters on a quantity of interest defined by the network, such as the
probability of a variable taking a specific value. In particular, the so-called
sensitivity value measures the quantity of interest's partial derivative with
respect to the network's conditional probabilities. However, finding such
values in large networks with thousands of parameters can become
computationally very expensive. We propose to use automatic differentiation
combined with exact inference to obtain all sensitivity values in a single
pass. Our method first marginalizes the whole network once using e.g. variable
elimination and then backpropagates this operation to obtain the gradient with
respect to all input parameters. We demonstrate our routines by ranking all
parameters by importance on a Bayesian network modeling humanitarian crises and
disasters, and then show the method's efficiency by scaling it to huge networks
with up to 100'000 parameters. An implementation of the methods using the
popular machine learning library PyTorch is freely available.
- Abstract(参考訳): 感度分析は、ベイズネットワークのパラメータが特定の値を取る変数の確率など、ネットワークによって定義された関心量に与える影響を測定する。
特に、いわゆる感度値は、ネットワークの条件付き確率に対する利子の偏微分の量を測定する。
しかし、数千のパラメータを持つ大規模ネットワークでそのような値を見つけるのは非常にコストがかかる。
1回のパスで全ての感度値を取得するために,自動微分と正確な推論を併用する手法を提案する。
提案手法は,まず変数除去などを用いてネットワーク全体の辺限化を行い,その処理をバックプロパゲーションし,入力パラメータの勾配を求める。
我々は,人道的危機と災害をモデル化したベイズネットワーク上で,すべてのパラメータを重要度でランク付けし,最大10万のパラメータを持つ巨大ネットワークにスケールすることで,手法の効率を示す。
一般的な機械学習ライブラリであるPyTorchを使ったメソッドの実装は無料で利用可能である。
関連論文リスト
- Global Sensitivity Analysis of Uncertain Parameters in Bayesian Networks [4.404496835736175]
我々は,大域的分散に基づくパラメータの感度分析を行う。
我々の方法は不確実性をネットワークの$n$追加変数としてエンコードすることで機能する。
最後に、結果のネットワークにSobolの手法を適用して、グローバルな感度指標を$n$とする。
論文 参考訳(メタデータ) (2024-06-09T12:36:38Z) - A Note on Bayesian Networks with Latent Root Variables [56.86503578982023]
残りの, 証明, 変数に対する限界分布もまたベイズ的ネットワークとして分解され, 経験的と呼ぶ。
マニフェスト変数の観測のデータセットにより、経験的ベイズネットのパラメータを定量化することができる。
論文 参考訳(メタデータ) (2024-02-26T23:53:34Z) - Efficient Sensitivity Analysis for Parametric Robust Markov Chains [23.870902923521335]
本稿では,ロバストマルコフ鎖の感度解析法を提案する。
我々は、不確実な遷移確率に関する偏微分の観点から感度を測定する。
得られた結果を、専用感度分析へのアクセスから利益を得る反復学習方式に組み込む。
論文 参考訳(メタデータ) (2023-05-01T08:23:55Z) - The YODO algorithm: An efficient computational framework for sensitivity
analysis in Bayesian networks [5.33024001730262]
感度分析は、ベイズネットワークのパラメータがネットワークによって定義された関心量に与える影響を測定する。
本稿では,自動微分と精度推定を組み合わせたアルゴリズムを提案し,単一パスにおける感度測定を効率的に計算する。
本手法は,一方向・多方向感度解析と許容領域の導出に利用できる。
論文 参考訳(メタデータ) (2023-02-01T10:47:31Z) - A Directed-Evolution Method for Sparsification and Compression of Neural
Networks with Application to Object Identification and Segmentation and
considerations of optimal quantization using small number of bits [0.0]
この研究は、ニューラルネットワークのスパーシフィケーションのためのDirected-Evolution法を紹介する。
ネットワーク精度に対するパラメータの関連性を直接評価する。
仮にゼロになったときの精度に最小の影響をもたらすパラメータは、実際にはゼロである。
論文 参考訳(メタデータ) (2022-06-12T23:49:08Z) - Effective Sparsification of Neural Networks with Global Sparsity
Constraint [45.640862235500165]
重み付けは、実世界の展開におけるディープニューラルネットワークのモデルサイズと推論時間を短縮するための効果的な技術です。
既存の手法では、各層に対して個別に適切な刈り取り率を見つけるために手動のチューニングまたは手作りのルールに依存している。
グローバルスパーシティー制約下で自然スパーシフィケーションの定式化を解決するプロバビリスティックマスキング(ProbMask)と呼ばれる効果的なネットワークスパーシフィケーション手法を提案する。
論文 参考訳(メタデータ) (2021-05-03T14:13:42Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - Function approximation by deep neural networks with parameters $\{0,\pm
\frac{1}{2}, \pm 1, 2\}$ [91.3755431537592]
C_beta$-smooth関数は、パラメータ$0,pm frac12, pm 1, 2$のニューラルネットワークによって近似できることが示されている。
構築されたネットワークの深さ、幅、およびアクティブパラメータの数は、対数係数まで、$[-1,1]$のパラメータを持つネットワークと同じ近似誤差に依存します。
論文 参考訳(メタデータ) (2021-03-15T19:10:02Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - Operation-Aware Soft Channel Pruning using Differentiable Masks [51.04085547997066]
本稿では,データ駆動型アルゴリズムを提案する。このアルゴリズムは,操作特性を利用して,ディープニューラルネットワークを異なる方法で圧縮する。
我々は大規模な実験を行い、出力ネットワークの精度で優れた性能を達成する。
論文 参考訳(メタデータ) (2020-07-08T07:44:00Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。