論文の概要: Exchangeability-Aware Sum-Product Networks
- arxiv url: http://arxiv.org/abs/2110.05165v1
- Date: Mon, 11 Oct 2021 11:25:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 23:50:50.495015
- Title: Exchangeability-Aware Sum-Product Networks
- Title(参考訳): 交換可能性を考慮したSum-Product Networks
- Authors: Stefan L\"udtke, Christian Bartelt, Heiner Stuckenschmidt
- Abstract要約: Sum-Product Networks (SPN) は、正確に、抽出可能な推論を提供する表現的確率モデルである。
本論文の貢献は,交換可能性を考慮したSum-Product Networks (XSPNs) と呼ばれる新しい確率モデルである。
- 参考スコア(独自算出の注目度): 10.506336354512145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sum-Product Networks (SPNs) are expressive probabilistic models that provide
exact, tractable inference. They achieve this efficiency by making used of
local independence. On the other hand, mixtures of exchangeable variable models
(MEVMs) are a class of tractable probabilistic models that make use of
exchangeability of random variables to render inference tractable.
Exchangeability, which arises naturally in systems consisting of multiple,
interrelated entities, has not been considered for efficient representation and
inference in SPNs yet. The contribution of this paper is a novel probabilistic
model which we call Exchangeability-Aware Sum-Product Networks (XSPNs). It
contains both SPNs and MEVMs as special cases, and combines the ability of SPNs
to efficiently learn deep probabilistic models with the ability of MEVMs to
efficiently handle exchangeable random variables. We also introduce a structure
learning algorithm for XSPNs and empirically show that they can be more
accurate and efficient than conventional SPNs when the data contains repeated,
interchangeable parts.
- Abstract(参考訳): sum-product network (spns) は正確な扱いやすい推論を提供する表現的確率モデルである。
彼らはこの効率を地域の独立を利用して達成する。
一方、交換可能変数モデル(mevms)の混合は、確率変数の交換可能性を利用して推論を扱いやすいものにする、扱いやすい確率モデルのクラスである。
複数の相互関連エンティティからなるシステムで自然に発生する交換性は、SPNにおける効率的な表現と推論のためにはまだ考慮されていない。
本稿では,Exchangeability-Aware Sum-Product Networks (XSPNs) と呼ぶ新しい確率モデルを提案する。
SPNとMEVMの両方を特別なケースとして含み、SPNが深い確率モデルを効率的に学習する能力と、交換可能な確率変数を効率的に扱う能力を組み合わせたものである。
また、XSPNのための構造学習アルゴリズムを導入し、データに繰り返し、交換可能な部分を含む場合、従来のSPNよりも正確で効率的であることを示す。
関連論文リスト
- $χ$SPN: Characteristic Interventional Sum-Product Networks for Causal Inference in Hybrid Domains [19.439265962277716]
確率変数が存在する場合の介入分布を推定できるaCharacteristic Interventional Sum-Product Network(chi$SPN)を提案する。
$chi$SPNは、介入SPN(iSPN)の葉の特徴的な関数を使い、離散的かつ連続的な確率変数に対する統一的なビューを提供する。
ニューラルネットワークを用いて、インターバルデータを用いて学習したiSPNのパラメータを推定する。
論文 参考訳(メタデータ) (2024-08-14T13:31:32Z) - Investigating the potential of Sparse Mixtures-of-Experts for multi-domain neural machine translation [59.41178047749177]
トレーニング中に見られるさまざまなドメインのデータを扱うことができ、トレーニング中に見つからないドメインに対して堅牢な効率的なモデルを開発することを目的として、マルチドメインニューラルネットワーク翻訳に重点を置いている。
SMOE(Sparse Mixture-of-Experts)モデルは、効率的なモデルスケーリングを可能にするため、このタスクに適していると仮定する。
マルチドメインシナリオにおけるSMoEの有用性を検証するための一連の実験を行い、Transformerの簡単な幅スケーリングは、実際はよりシンプルで驚くほど効率的なアプローチであり、SMoEと同等の性能レベルに達することを発見した。
論文 参考訳(メタデータ) (2024-07-01T09:45:22Z) - Top-Down Bayesian Posterior Sampling for Sum-Product Networks [32.01426831450348]
Sum-product Network(SPN)は、基本確率演算の正確かつ高速な評価を特徴とする確率モデルである。
本研究では,大規模SPN上で効率的に実装可能なベイズ学習手法を開発することを目的とした。
提案手法は,20以上のデータセットの数値実験において,学習時間の複雑性を向上し,計算速度を100倍以上に高速化し,予測性能に優れることを示した。
論文 参考訳(メタデータ) (2024-06-18T07:36:45Z) - Making Pre-trained Language Models Great on Tabular Prediction [50.70574370855663]
ディープニューラルネットワーク(DNN)の転送性は、画像および言語処理において著しく進歩している。
本稿では,表型データ予測のための訓練済みLMであるTP-BERTaを提案する。
新たな相対等級トークン化では、スカラー数値の特徴値を細分化した高次元トークンに変換し、特徴値と対応する特徴名を統合する。
論文 参考訳(メタデータ) (2024-03-04T08:38:56Z) - Deep Stochastic Processes via Functional Markov Transition Operators [59.55961312230447]
本稿では,ニューラルパラメータ化マルコフ遷移作用素の列を関数空間に重ねて構築した新しいプロセス群(SP)を紹介する。
これらのマルコフ遷移作用素は、SPの交換可能性と整合性を維持することができることを証明している。
論文 参考訳(メタデータ) (2023-05-24T21:15:23Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - PECAN: A Product-Quantized Content Addressable Memory Network [6.530758154165138]
フィルタリングと線形変換は製品量子化(PQ)によってのみ実現される
これにより、コンテンツアドレス可能なメモリ(CAM)による自然な実装が実現される。
PECAN(Product-Quantized Content Addressable Memory Network)の実現可能性を確認する実験
論文 参考訳(メタデータ) (2022-08-13T08:33:56Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - Sum-Product-Transform Networks: Exploiting Symmetries using Invertible
Transformations [1.539942973115038]
Sum-Product-Transform Networks (SPTN) は、非可逆変換を追加の内部ノードとして使用する総積ネットワークの拡張である。
G-SPTNは、密度推定タスクの最先端結果を達成し、異常検出のための最先端手法と競合する。
論文 参考訳(メタデータ) (2020-05-04T07:05:51Z) - Sum-product networks: A survey [0.0]
和積ネットワーク(英: sum-product network、SPN)は、根付き非巡回有向グラフに基づく確率モデルである。
本稿では、SPNの定義、データからの推論と学習のための主要なアルゴリズム、メインアプリケーション、ソフトウェアライブラリの簡単なレビュー、関連するモデルとの比較などについて調査する。
論文 参考訳(メタデータ) (2020-04-02T17:46:29Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。