論文の概要: Fourier Basis Density Model
- arxiv url: http://arxiv.org/abs/2402.15345v1
- Date: Fri, 23 Feb 2024 14:26:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 14:21:46.104863
- Title: Fourier Basis Density Model
- Title(参考訳): フーリエ基底密度モデル
- Authors: Alfredo De la Fuente, Saurabh Singh, Johannes Ball\'e
- Abstract要約: 制約されたフーリエ基底によりパラメータ化される軽量でフレキシブルでエンドツーエンドのトレーニング可能な確率密度モデルを導入する。
一般に適合が難しいマルチモーダル1次元密度を近似する際の性能を評価する。
- 参考スコア(独自算出の注目度): 2.0412300887700505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a lightweight, flexible and end-to-end trainable probability
density model parameterized by a constrained Fourier basis. We assess its
performance at approximating a range of multi-modal 1D densities, which are
generally difficult to fit. In comparison to the deep factorized model
introduced in [1], our model achieves a lower cross entropy at a similar
computational budget. In addition, we also evaluate our method on a toy
compression task, demonstrating its utility in learned compression.
- Abstract(参考訳): 制約されたフーリエ基底によりパラメータ化される軽量でフレキシブルでエンドツーエンドのトレーニング可能な確率密度モデルを導入する。
一般に適合が難しいマルチモーダル1次元密度を近似する際の性能を評価する。
[1]で導入された深部因子化モデルと比較すると, 同様の計算予算でより低いクロスエントロピーが得られる。
また,玩具圧縮タスクにおける提案手法を評価し,学習圧縮におけるその有用性を示した。
関連論文リスト
- Minimizing robust density power-based divergences for general parametric
density models [3.0277213703725767]
一般パラメトリック密度に対する密度パワー分散(DPD)を最小化する手法を提案する。
提案手法は、他の密度電力ベースの$gamma$-divergencesを最小化するためにも利用できる。
論文 参考訳(メタデータ) (2023-07-11T13:33:47Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - D4FT: A Deep Learning Approach to Kohn-Sham Density Functional Theory [79.50644650795012]
コーンシャム密度汎関数論(KS-DFT)を解くための深層学習手法を提案する。
このような手法はSCF法と同じ表現性を持つが,計算複雑性は低下する。
さらに,本手法により,より複雑なニューラルベース波動関数の探索が可能となった。
論文 参考訳(メタデータ) (2023-03-01T10:38:10Z) - Neural Inverse Transform Sampler [4.061135251278187]
ニューラルネットワークを用いて条件密度をモデル化する場合、$Z$を正確に効率的に計算できることが示される。
textbfNeural Inverse Transform Sampler (NITS)は,汎用的,多次元,コンパクトに支持された確率密度のモデリングとサンプリングのための新しいディープラーニングフレームワークである。
論文 参考訳(メタデータ) (2022-06-22T15:28:29Z) - A Model for Multi-View Residual Covariances based on Perspective
Deformation [88.21738020902411]
マルチビューSfM, オードメトリ, SLAMセットアップにおける視覚的残差の共分散モデルの導出を行う。
我々は、合成データと実データを用いてモデルを検証し、それを光度および特徴量に基づくバンドル調整に統合する。
論文 参考訳(メタデータ) (2022-02-01T21:21:56Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Large-Scale Learning with Fourier Features and Tensor Decompositions [3.6930948691311007]
決定論的フーリエ特徴のテンソル積構造を利用して、モデルパラメータを低ランクテンソル分解として表現することができる。
数値実験により、我々の低ランクテンソル法が対応する非パラメトリックモデルと同じ性能を得ることを示す。
論文 参考訳(メタデータ) (2021-09-03T14:12:53Z) - PSD Representations for Effective Probability Models [117.35298398434628]
最近提案された非負関数に対する正半定値(PSD)モデルがこの目的に特に適していることを示す。
我々はPSDモデルの近似と一般化能力の両方を特徴付け、それらが強い理論的保証を享受していることを示す。
本研究では,PSDモデルの密度推定,決定理論,推論への応用への道を開く。
論文 参考訳(メタデータ) (2021-06-30T15:13:39Z) - Low-rank Characteristic Tensor Density Estimation Part I: Foundations [38.05393186002834]
テンソル因子化ツールに基づく新しい手法を提案する。
次元の呪いを回避するため、この特性テンソルの低ランクモデルを導入する。
提案手法の有望な性能を,複数の測定データを用いて実証する。
論文 参考訳(メタデータ) (2020-08-27T18:06:19Z) - Additive Poisson Process: Learning Intensity of Higher-Order Interaction
in Stochastic Processes [10.439638982101181]
低次元射影を用いたプロセスにおける強度関数の高次相互作用効果をモデル化できる新しいフレームワークであるAdditive Poisson Process(APP)を提案する。
我々のモデルは、統計多様体上の高階相互作用をモデル化するための情報幾何学の技法と、次元の呪いの影響を克服するために低次元射影を使用する一般化加法モデルを組み合わせる。
論文 参考訳(メタデータ) (2020-06-16T08:25:36Z) - Fast approximations in the homogeneous Ising model for use in scene
analysis [61.0951285821105]
我々は、推論に必要な量を数値計算できる正確な近似を提供する。
近似式はスケーラブルでマルコフランダム場の大きさに満足できないことを示す。
機能的磁気共鳴イメージングアクティベーション検出実験においてベイズ推論を行い, ピスタチオ樹収量の年次増加の空間パターンにおける異方性に対する確率比試験を行った。
論文 参考訳(メタデータ) (2017-12-06T14:24:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。