論文の概要: Tractable Uncertainty for Structure Learning
- arxiv url: http://arxiv.org/abs/2204.14170v1
- Date: Fri, 29 Apr 2022 15:54:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-02 12:51:33.863671
- Title: Tractable Uncertainty for Structure Learning
- Title(参考訳): 構造学習における不確かさ
- Authors: Benjie Wang, Matthew Wicker, Marta Kwiatkowska
- Abstract要約: 近似後推論のためのフレームワークであるSTructureのTractable Uncertaintyを提案する。
確率回路は構造学習のための拡張表現として利用できる。
- 参考スコア(独自算出の注目度): 21.46601360284884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian structure learning allows one to capture uncertainty over the causal
directed acyclic graph (DAG) responsible for generating given data. In this
work, we present Tractable Uncertainty for STructure learning (TRUST), a
framework for approximate posterior inference that relies on probabilistic
circuits as the representation of our posterior belief. In contrast to
sample-based posterior approximations, our representation can capture a much
richer space of DAGs, while being able to tractably answer a range of useful
inference queries. We empirically show how probabilistic circuits can be used
as an augmented representation for structure learning methods, leading to
improvement in both the quality of inferred structures and posterior
uncertainty. Experimental results also demonstrate the improved
representational capacity of TRUST, outperforming competing methods on
conditional query answering.
- Abstract(参考訳): ベイズ構造学習は、与えられたデータを生成するための因果有向非巡回グラフ(DAG)上の不確実性を捉えることができる。
本研究では,確率的回路に依存した近似後部推論のフレームワークであるTructure Learning (TRUST) のトラクタブル不確かさを後部信念の表現として提示する。
サンプルベースの後部近似とは対照的に、我々の表現はよりリッチなDAG空間を捉えつつ、有用な推論クエリの範囲を抽出することができる。
確率回路が構造学習手法の強化表現としてどのように使用できるかを実証的に示し、推論された構造の品質と後続の不確実性の両方を改善する。
また,TRUSTの表現能力が向上し,条件付きクエリ応答における競合手法よりも優れていた。
関連論文リスト
- Provable Guarantees for Generative Behavior Cloning: Bridging Low-Level
Stability and High-Level Behavior [51.60683890503293]
生成モデルを用いた複雑な専門家による実演の行動クローニングに関する理論的枠組みを提案する。
任意の専門的軌跡の時間ごとのステップ分布に一致するトラジェクトリを生成することができることを示す。
論文 参考訳(メタデータ) (2023-07-27T04:27:26Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Structure Learning with Continuous Optimization: A Sober Look and Beyond [21.163991683650526]
本稿では,非巡回グラフ (DAG) 構造学習における連続的な最適化が有効であり,かつ有効に機能しない場合について検討する。
しきい値と疎度を含む探索手順のいくつかの側面に関する洞察を提供し、最終解においてそれらが重要な役割を担っていることを示す。
論文 参考訳(メタデータ) (2023-04-04T22:10:40Z) - Deciphering RNA Secondary Structure Prediction: A Probabilistic K-Rook Matching Perspective [63.3632827588974]
RFoldは、与えられたシーケンスから最もよく一致するK-Rook解を予測する方法である。
RFoldは、最先端のアプローチよりも競争性能とおよそ8倍の推論効率を達成する。
論文 参考訳(メタデータ) (2022-12-02T16:34:56Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Distributionally robust risk evaluation with a causality constraint and structural information [0.0]
ニューラルネットワークによるテスト関数を近似し、Rademacherの複雑さによるサンプルの複雑さを証明する。
我々のフレームワークは、分散的にロバストなポートフォリオ選択問題において、従来のものよりも優れています。
論文 参考訳(メタデータ) (2022-03-20T14:48:37Z) - A Free Lunch from the Noise: Provable and Practical Exploration for
Representation Learning [55.048010996144036]
ある雑音仮定の下では、対応するマルコフ遷移作用素の線型スペクトル特性を自由な閉形式で得られることを示す。
本稿では,スペクトルダイナミクス埋め込み(SPEDE)を提案する。これはトレードオフを破り,雑音の構造を利用して表現学習のための楽観的な探索を完遂する。
論文 参考訳(メタデータ) (2021-11-22T19:24:57Z) - DiBS: Differentiable Bayesian Structure Learning [38.01659425023988]
ベイズ構造学習(DiBS)のための汎用的で完全に微分可能なフレームワークを提案する。
DiBSは潜在確率グラフ表現の連続空間で動作する。
既存の研究とは対照的に、DiBSは局所的な条件分布の形式に依存しない。
論文 参考訳(メタデータ) (2021-05-25T11:23:08Z) - Representations for Stable Off-Policy Reinforcement Learning [37.561660796265]
関数近似による強化学習は不安定であり、また分岐することもある。
本研究では,非政治学習においても,標準的TDアルゴリズムが安定な非自明な状態表現を示す。
我々はこれらの安定表現が勾配降下を用いて学習できることを実証的に示すことで結論付けた。
論文 参考訳(メタデータ) (2020-07-10T17:55:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。