論文の概要: normflows: A PyTorch Package for Normalizing Flows
- arxiv url: http://arxiv.org/abs/2302.12014v1
- Date: Thu, 26 Jan 2023 14:58:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-26 13:13:36.493546
- Title: normflows: A PyTorch Package for Normalizing Flows
- Title(参考訳): normflows: フローの正規化のためのPyTorchパッケージ
- Authors: Vincent Stimper, David Liu, Andrew Campbell, Vincent Berenz, Lukas
Ryll, Bernhard Sch\"olkopf, Jos\'e Miguel Hern\'andez-Lobato
- Abstract要約: フローを正規化するためのPythonパッケージである normflows を提示する。
ベースディストリビューション、フロー層、ニューラルネットワークのスイートから正規化フローモデルを構築することができる。
パッケージはip経由で簡単にインストールでき、コードはGitHubで公開されている。
- 参考スコア(独自算出の注目度): 7.450471038139951
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Normalizing flows model probability distributions through an expressive
tractable density. They transform a simple base distribution, such as a
Gaussian, through a sequence of invertible functions, which are referred to as
layers. These layers typically use neural networks to become very expressive.
Flows are ubiquitous in machine learning and have been applied to image
generation, text modeling, variational inference, approximating Boltzmann
distributions, and many other problems. Here, we present normflows, a Python
package for normalizing flows. It allows to build normalizing flow models from
a suite of base distributions, flow layers, and neural networks. The package is
implemented in the popular deep learning framework PyTorch, which simplifies
the integration of flows in larger machine learning models or pipelines. It
supports most of the common normalizing flow architectures, such as Real NVP,
Glow, Masked Autoregressive Flows, Neural Spline Flows, Residual Flows, and
many more. The package can be easily installed via pip and the code is publicly
available on GitHub.
- Abstract(参考訳): 正規化流動モデル確率分布は表現力のある移動密度を通る。
それらは、ガウス函数のような単純な基底分布を、層と呼ばれる可逆関数の列を通して変換する。
これらの層は通常、ニューラルネットワークを使って非常に表現力がある。
フローは機械学習においてユビキタスであり、画像生成、テキストモデリング、変分推論、ボルツマン分布の近似など多くの問題に適用されている。
ここでは、フローを正規化するPythonパッケージである normflows を紹介する。
ベースディストリビューション、フロー層、ニューラルネットワークのスイートから正規化フローモデルを構築することができる。
このパッケージは、一般的なディープラーニングフレームワークであるpytorchで実装されている。
Real NVP、Glow、Masked Autoregressive Flows、Neural Spline Flows、Residual Flowsなど、一般的な正規化フローアーキテクチャの大部分をサポートする。
パッケージはpip経由で簡単にインストールでき、コードはgithubで公開されている。
関連論文リスト
- VQ-Flow: Taming Normalizing Flows for Multi-Class Anomaly Detection via Hierarchical Vector Quantization [101.41553763861381]
本稿では,マルチクラス異常検出における流れの正規化の可能性について検討する。
我々はフローモデルに、教師なしの方法で複数のクラス正規データの異なる概念を区別する権限を与え、結果としてVQ-Flowという新しいフローベース統一手法が生み出された。
提案されたVQ-Flowは、統合トレーニングスキーム内でのマルチクラスの異常検出の最先端を推し進め、MVTec ADで99.5%/98.3%のAUROCが得られる。
論文 参考訳(メタデータ) (2024-09-02T05:01:41Z) - Flexible Tails for Normalizing Flows [0.658372523529902]
この問題に対する一般的な解決策は、重い尾のベース分布を使用することである。
これは、重み付き入力下でのフローの正規化などのニューラルネットワークの最適化が困難であるため、パフォーマンスが低下する可能性がある、と我々は主張する。
ガウス基底分布と重みを生成可能な最終変換層を用いる方法を提案する。
論文 参考訳(メタデータ) (2024-06-22T13:44:01Z) - PeRFlow: Piecewise Rectified Flow as Universal Plug-and-Play Accelerator [73.80050807279461]
Piecewise Rectified Flow (PeRFlow) は拡散モデルの高速化のためのフローベース手法である。
PeRFlowは数ステップの世代で優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-05-13T07:10:53Z) - Boundary-aware Decoupled Flow Networks for Realistic Extreme Rescaling [49.215957313126324]
Invertible rescaling Network (IRN) やgenerative adversarial Network (GAN) などを含む最近の生成手法は、画像再スケーリングにおいて例外的な性能を示した。
しかし、IRNベースの手法は過度に滑らかな結果を生成する傾向にあり、一方、GANベースの手法は偽の細部を容易に生成する。
本稿では,現実的かつ視覚的に満足な結果を生成するために,境界対応デカップリングフローネットワーク(BDFlow)を提案する。
論文 参考訳(メタデータ) (2024-05-05T14:05:33Z) - PaddingFlow: Improving Normalizing Flows with Padding-Dimensional Noise [4.762593660623934]
パディングフロー(PaddingFlow)は,パディング次元雑音による正規化フローを改善する新しいデクエント化法である。
非条件密度推定の主ベンチマークで本手法の有効性を検証した。
この結果から,PaddingFlowはすべての実験において優れた性能を発揮できることがわかった。
論文 参考訳(メタデータ) (2024-03-13T03:28:39Z) - GFlowOut: Dropout with Generative Flow Networks [76.59535235717631]
モンテカルロ・ドロップアウトは近似推論の比較的安価な方法として広く利用されている。
最近の研究は、ドロップアウトマスクを潜伏変数と見なすことができ、変動推論で推測できることを示している。
GFlowOutleveragesは、最近提案されたジェネレーティブフローネットワーク(GFlowNets)の確率的フレームワークを使用して、ドロップアウトマスク上の後部分布を学習する。
論文 参考訳(メタデータ) (2022-10-24T03:00:01Z) - Invertible Monotone Operators for Normalizing Flows [7.971699294672282]
正規化フローモデル確率は、単純な分布を複素分布に変換する可逆変換を学習することによって得られる。
単調作用素を用いたリプシッツ定数の問題を克服するための単調定式化を提案する。
結果として得られるモデルであるMonotone Flowsは、複数の密度推定ベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-10-15T03:40:46Z) - Implementing graph neural networks with TensorFlow-Keras [1.6114012813668934]
グラフニューラルネットワークは、最近多くの注目を集めた汎用的な機械学習アーキテクチャです。
本技術報告では,Keras-Kerasモデルに対する畳み込み層とプール層の実装について述べる。
論文 参考訳(メタデータ) (2021-03-07T10:46:02Z) - You say Normalizing Flows I see Bayesian Networks [11.23030807455021]
正規化フローは、予め定義された位相と各ノードでの学習可能な密度を持つベイズネットワークに還元されることを示す。
正規化フローにおける多重変換の積み重ねは独立性の仮定を緩和し、モデル分布を絡ませることを示す。
我々は,その深さに関わらず,アフィン正規化流れの不均一性を証明した。
論文 参考訳(メタデータ) (2020-06-01T11:54:50Z) - Gaussianization Flows [113.79542218282282]
そこで本研究では,サンプル生成における効率のよい繰り返しと効率のよい逆変換を両立できる新しい型正規化フローモデルを提案する。
この保証された表現性のため、サンプル生成の効率を損なうことなく、マルチモーダルなターゲット分布をキャプチャできる。
論文 参考訳(メタデータ) (2020-03-04T08:15:06Z) - Semi-Supervised Learning with Normalizing Flows [54.376602201489995]
FlowGMMは、フローの正規化を伴う生成半教師付き学習におけるエンドツーエンドのアプローチである。
我々は AG-News や Yahoo Answers のテキストデータなど,幅広いアプリケーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2019-12-30T17:36:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。