論文の概要: Fine-Tuning the Odds in Bayesian Networks
- arxiv url: http://arxiv.org/abs/2105.14371v1
- Date: Sat, 29 May 2021 20:41:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-03 14:15:39.445971
- Title: Fine-Tuning the Odds in Bayesian Networks
- Title(参考訳): ベイズネットワークにおけるオッズの微調整
- Authors: Bahare Salmani and Joost-Pieter Katoen
- Abstract要約: 本稿では,条件付き確率表(CPT)がシンボル変数を含むベイズネットワークの新しい解析手法を提案する。
鍵となる考え方は、パラメトリックマルコフ連鎖の合成問題にスケーラブルで強力なテクニックを活用することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes various new analysis techniques for Bayes networks in
which conditional probability tables (CPTs) may contain symbolic variables. The
key idea is to exploit scalable and powerful techniques for synthesis problems
in parametric Markov chains. Our techniques are applicable to arbitrarily many,
possibly dependent parameters that may occur in various CPTs. This lifts the
severe restrictions on parameters, e.g., by restricting the number of
parametrized CPTs to one or two, or by avoiding parameter dependencies between
several CPTs, in existing works for parametric Bayes networks (pBNs). We
describe how our techniques can be used for various pBN synthesis problems
studied in the literature such as computing sensitivity functions (and values),
simple and difference parameter tuning, ratio parameter tuning, and minimal
change tuning. Experiments on several benchmarks show that our prototypical
tool built on top of the probabilistic model checker Storm can handle several
hundreds of parameters.
- Abstract(参考訳): 本稿では,条件付き確率表(CPT)がシンボル変数を含むベイズネットワークの新しい解析手法を提案する。
重要なアイデアは、パラメトリックマルコフ連鎖の合成問題にスケーラブルで強力な技術を活用することである。
我々の手法は、様々なCPTで起こりうる、任意に多くの依存パラメータに適用できる。
これは例えばパラメトリックベイズネットワーク(pBN)の既存の作業において、パラメトリックCPTの数を1つまたは2つに制限したり、複数のCPT間のパラメータ依存を避けることでパラメータの厳しい制限を解除する。
本稿では, 計算感度関数(および値), 単純・差分パラメータチューニング, 比パラメータチューニング, 最小変分チューニングなどの文献で研究されている様々なpBN合成問題に対して, 本手法をどのように利用できるかを説明する。
いくつかのベンチマークの実験では、確率論的モデルチェッカーStormの上に構築されたプロトタイプツールが数百のパラメータを処理可能であることが示されている。
関連論文リスト
- Scaling Exponents Across Parameterizations and Optimizers [94.54718325264218]
本稿では,先行研究における重要な仮定を考察し,パラメータ化の新たな視点を提案する。
私たちの経験的調査には、3つの組み合わせでトレーニングされた数万のモデルが含まれています。
最高の学習率のスケーリング基準は、以前の作業の仮定から除外されることがよくあります。
論文 参考訳(メタデータ) (2024-07-08T12:32:51Z) - The Empirical Impact of Neural Parameter Symmetries, or Lack Thereof [50.49582712378289]
ニューラル・ネットワーク・アーキテクチャの導入により,ニューラル・パラメータ・対称性の影響について検討する。
我々は,パラメータ空間対称性を低減するために,標準的なニューラルネットワークを改良する2つの手法を開発した。
実験により,パラメータ対称性の経験的影響に関する興味深い観察がいくつか示された。
論文 参考訳(メタデータ) (2024-05-30T16:32:31Z) - Parameter Efficient Fine-tuning via Cross Block Orchestration for Segment Anything Model [81.55141188169621]
PEFTにクロスブロックオーケストレーション機構を組み、SAM(Segment Anything Model)の様々な下流シナリオへの適応を可能にする。
本稿では,超複素層から重みが生じる線形射影ヘッドを導入するブロック内拡張モジュールを提案する。
提案手法は,約1Kのパラメータのみを付加した新規シナリオにおいて,セグメンテーション性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-11-28T11:23:34Z) - Tractable Bounding of Counterfactual Queries by Knowledge Compilation [51.47174989680976]
本稿では, パール構造因果モデルにおいて, 因果関係などの部分的特定可能なクエリのバウンダリングの問題について議論する。
最近提案された反復EMスキームは初期化パラメータをサンプリングしてそれらの境界を内部近似する。
シンボルパラメータを実際の値に置き換えた回路構造を,単一のシンボル知識コンパイルによって得られることを示す。
論文 参考訳(メタデータ) (2023-10-05T07:10:40Z) - Finding an $\epsilon$-close Variation of Parameters in Bayesian Networks [0.0]
与えられた条件付き確率テーブルの集合における確率エントリの最小$epsilon$-close修正が見つかる。
パラメトリックマルコフ連鎖に対する最先端の「領域検証」技術に基づいて,既存の手法を超越したアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-17T08:46:53Z) - Sensitivity-Aware Visual Parameter-Efficient Fine-Tuning [91.5113227694443]
私たちは新しいビジュアルを提案します。
Sensuous-Aware Fine-Tuning (SPT) スキーム。
SPTはタスク固有の重要な位置にトレーニング可能なパラメータを割り当てる。
ダウンストリーム認識タスクの幅広い実験により,SPTは既存のPEFT法と相補的であることが示された。
論文 参考訳(メタデータ) (2023-03-15T12:34:24Z) - Symmetric Convolutional Filters: A Novel Way to Constrain Parameters in
CNN [0.0]
対称フィルタに基づくCNNのパラメータを制約する新しい手法を提案する。
提案モデルでは,パラメータの冗長性を効果的に一般化し,構造化した除去を行う。
論文 参考訳(メタデータ) (2022-02-26T09:45:30Z) - Towards a Unified View of Parameter-Efficient Transfer Learning [108.94786930869473]
下流タスクにおける大規模事前学習言語モデルの微調整は、NLPにおけるデファクト学習パラダイムとなっている。
近年の研究では,少数の(外部)パラメータのみを微調整するだけで高い性能が得られるパラメータ効率の伝達学習法が提案されている。
我々は、最先端のパラメータ効率変換学習手法の設計を分解し、それらの相互接続を確立する統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-08T20:22:26Z) - Network insensitivity to parameter noise via adversarial regularization [0.0]
本稿では,学習中にネットワークパラメータを攻撃できる新しい対向的ネットワーク最適化アルゴリズムを提案する。
提案手法は,対象パラメータの変動に対してより堅牢なモデルを生成する。
私たちの研究は、計算非理想性に苦しむデバイスを推論するために、ニューラルネットワークアーキテクチャをデプロイするためのアプローチを提供します。
論文 参考訳(メタデータ) (2021-06-09T12:11:55Z) - One from many: Estimating a function of many parameters [0.0]
プロセスの多くのパラメータは未知であり、パラメータを制御せずにこれらのパラメータの特定の線形結合を推定する。
幾何学的推論は、基本的かつ達成可能な量子-プロセス境界を飽和させるために必要かつ十分な条件を示す。
論文 参考訳(メタデータ) (2020-02-07T16:55:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。