論文の概要: Deconvolutional Density Network: Free-Form Conditional Density
Estimation
- arxiv url: http://arxiv.org/abs/2105.14367v1
- Date: Sat, 29 May 2021 20:09:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 17:40:59.313616
- Title: Deconvolutional Density Network: Free-Form Conditional Density
Estimation
- Title(参考訳): deconvolutional density network: free-form conditional density estimation
- Authors: Bing Chen, Mazharul Islam, Lin Wang, Jisuo Gao and Jeff Orchard
- Abstract要約: ニューラルネットワークを使用して、出力分布を明示的に計算することができる。
我々はデコンボリューションを用いた自由形式分布のモデル化の利点を示す。
我々は,本手法を他の多くの密度推定手法と比較した。
- 参考スコア(独自算出の注目度): 6.805003206706124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional density estimation is the task of estimating the probability of
an event, conditioned on some inputs. A neural network can be used to compute
the output distribution explicitly. For such a task, there are many ways to
represent a continuous-domain distribution using the output of a neural
network, but each comes with its own limitations for what distributions it can
accurately render. If the family of functions is too restrictive, it will not
be appropriate for many datasets. In this paper, we demonstrate the benefits of
modeling free-form distributions using deconvolution. It has the advantage of
being flexible, but also takes advantage of the topological smoothness offered
by the deconvolution layers. We compare our method to a number of other
density-estimation approaches, and show that our Deconvolutional Density
Network (DDN) outperforms the competing methods on many artificial and real
tasks, without committing to a restrictive parametric model.
- Abstract(参考訳): 条件密度推定は、いくつかの入力で条件付けられた事象の確率を推定するタスクである。
ニューラルネットワークを使用して、出力分布を明示的に計算することができる。
このようなタスクでは、ニューラルネットワークの出力を使って、連続したドメイン分布を表現する方法はたくさんありますが、それぞれが正確にレンダリングできるディストリビューションには独自の制限があります。
関数の族が制限的すぎる場合、多くのデータセットには適さない。
本稿では,自由形式分布のデコンボリューションを用いたモデリングの利点を示す。
柔軟性には利点がありますが、デコンボリューション層が提供するトポロジカルな滑らかさにもメリットがあります。
我々は,本手法を他の多くの密度推定手法と比較し,非畳み込み密度ネットワーク(DDN)が制約的パラメトリックモデルにコミットすることなく,多くの人工的および実タスクにおいて競合する手法より優れていることを示す。
関連論文リスト
- CF-GO-Net: A Universal Distribution Learner via Characteristic Function Networks with Graph Optimizers [8.816637789605174]
本稿では,分布に直接対応する確率的記述子である特徴関数(CF)を用いる手法を提案する。
確率密度関数 (pdf) とは異なり、特徴関数は常に存在するだけでなく、さらなる自由度を与える。
提案手法では,訓練済みのオートエンコーダなどの事前学習モデルを使用することで,特徴空間で直接学習することができる。
論文 参考訳(メタデータ) (2024-09-19T09:33:12Z) - Generative Conditional Distributions by Neural (Entropic) Optimal Transport [12.152228552335798]
本稿では,条件分布の生成モデル学習を目的とした,ニューラルエントロピー最適輸送手法を提案する。
提案手法は,2つのニューラルネットワークのミニマックストレーニングに依存する。
実世界のデータセットを用いた実験では,現状条件分布学習法と比較して,アルゴリズムの有効性が示された。
論文 参考訳(メタデータ) (2024-06-04T13:45:35Z) - Squared Neural Families: A New Class of Tractable Density Models [23.337256081314518]
正方形ニューラルネットワークファミリー(SNEFY)と呼ばれる新しい確率分布のクラスを開発し,検討する。
SNEFYsは、多くの興味のある場合において閉形式正規化定数を認め、フレキシブルで完全にトラクタブルな密度モデルをもたらすことを示す。
それらのユーティリティは、データタスクの欠如による様々な密度推定、条件付き密度推定、および密度推定について説明される。
論文 参考訳(メタデータ) (2023-05-22T23:56:11Z) - Uncertainty Modeling for Out-of-Distribution Generalization [56.957731893992495]
特徴統計を適切に操作することで、ディープラーニングモデルの一般化能力を向上させることができると論じる。
一般的な手法では、特徴統計を学習した特徴から測定された決定論的値とみなすことが多い。
我々は、学習中に合成された特徴統計を用いて、領域シフトの不確かさをモデル化することにより、ネットワークの一般化能力を向上させる。
論文 参考訳(メタデータ) (2022-02-08T16:09:12Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Adversarial sampling of unknown and high-dimensional conditional
distributions [0.0]
本稿では, GAN (Generative Adversarial Network) と呼ばれるデータ駆動方式を用いて, サンプリング法と基礎分布の推定を行う。
GANは、2つの競合するニューラルネットワークをトレーニングし、トレーニングセット分布からサンプルを効果的に生成できるネットワークを生成する。
提案アルゴリズムのすべてのバージョンは, 対象条件分布を, サンプルの品質に最小限の影響で効果的にサンプリングできることが示されている。
論文 参考訳(メタデータ) (2021-11-08T12:23:38Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - Kalman Bayesian Neural Networks for Closed-form Online Learning [5.220940151628734]
閉形式ベイズ推論によるBNN学習のための新しい手法を提案する。
出力の予測分布の計算と重み分布の更新をベイズフィルタおよび平滑化問題として扱う。
これにより、勾配降下のないシーケンシャル/オンライン方式でネットワークパラメータをトレーニングするためのクローズドフォーム表現が可能になる。
論文 参考訳(メタデータ) (2021-10-03T07:29:57Z) - Probabilistic Numeric Convolutional Neural Networks [80.42120128330411]
画像や時系列などの連続的な入力信号は、不規則にサンプリングされたり、値が欠けていたりすることは、既存のディープラーニング手法では困難である。
ガウス過程(GP)として特徴を表す確率的畳み込みニューラルネットワークを提案する。
次に、畳み込み層を、このGP上で定義されたPDEの進化として定義し、次いで非線形性とする。
実験では,SuperPixel-MNISTデータセットの先行技術と医療時間2012データセットの競合性能から,提案手法の誤差を3倍に削減できることが示されている。
論文 参考訳(メタデータ) (2020-10-21T10:08:21Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z) - Stein Variational Inference for Discrete Distributions [70.19352762933259]
離散分布を等価なピースワイズ連続分布に変換する単純な一般フレームワークを提案する。
提案手法は,ギブスサンプリングや不連続ハミルトニアンモンテカルロといった従来のアルゴリズムよりも優れている。
我々は,この手法がバイナライズニューラルネットワーク(BNN)のアンサンブルを学習するための有望なツールであることを実証した。
さらに、そのような変換は、勾配のないカーネル化されたStein差分に簡単に適用でき、離散分布の良性(GoF)テストを実行することができる。
論文 参考訳(メタデータ) (2020-03-01T22:45:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。