論文の概要: normflows: A PyTorch Package for Normalizing Flows
- arxiv url: http://arxiv.org/abs/2302.12014v1
- Date: Thu, 26 Jan 2023 14:58:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-26 13:13:36.493546
- Title: normflows: A PyTorch Package for Normalizing Flows
- Title(参考訳): normflows: フローの正規化のためのPyTorchパッケージ
- Authors: Vincent Stimper, David Liu, Andrew Campbell, Vincent Berenz, Lukas
Ryll, Bernhard Sch\"olkopf, Jos\'e Miguel Hern\'andez-Lobato
- Abstract要約: フローを正規化するためのPythonパッケージである normflows を提示する。
ベースディストリビューション、フロー層、ニューラルネットワークのスイートから正規化フローモデルを構築することができる。
パッケージはip経由で簡単にインストールでき、コードはGitHubで公開されている。
- 参考スコア(独自算出の注目度): 7.450471038139951
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Normalizing flows model probability distributions through an expressive
tractable density. They transform a simple base distribution, such as a
Gaussian, through a sequence of invertible functions, which are referred to as
layers. These layers typically use neural networks to become very expressive.
Flows are ubiquitous in machine learning and have been applied to image
generation, text modeling, variational inference, approximating Boltzmann
distributions, and many other problems. Here, we present normflows, a Python
package for normalizing flows. It allows to build normalizing flow models from
a suite of base distributions, flow layers, and neural networks. The package is
implemented in the popular deep learning framework PyTorch, which simplifies
the integration of flows in larger machine learning models or pipelines. It
supports most of the common normalizing flow architectures, such as Real NVP,
Glow, Masked Autoregressive Flows, Neural Spline Flows, Residual Flows, and
many more. The package can be easily installed via pip and the code is publicly
available on GitHub.
- Abstract(参考訳): 正規化流動モデル確率分布は表現力のある移動密度を通る。
それらは、ガウス函数のような単純な基底分布を、層と呼ばれる可逆関数の列を通して変換する。
これらの層は通常、ニューラルネットワークを使って非常に表現力がある。
フローは機械学習においてユビキタスであり、画像生成、テキストモデリング、変分推論、ボルツマン分布の近似など多くの問題に適用されている。
ここでは、フローを正規化するPythonパッケージである normflows を紹介する。
ベースディストリビューション、フロー層、ニューラルネットワークのスイートから正規化フローモデルを構築することができる。
このパッケージは、一般的なディープラーニングフレームワークであるpytorchで実装されている。
Real NVP、Glow、Masked Autoregressive Flows、Neural Spline Flows、Residual Flowsなど、一般的な正規化フローアーキテクチャの大部分をサポートする。
パッケージはpip経由で簡単にインストールでき、コードはgithubで公開されている。
関連論文リスト
- TensorKrowch: Smooth integration of tensor networks in machine learning [68.8204255655161]
PyTorch上に構築されたオープンソースのPythonライブラリであるKrowchを紹介します。
ユーザは任意のテンソルネットワークを構築してトレーニングし、より複雑なディープラーニングモデルにレイヤとして統合することができる。
論文 参考訳(メタデータ) (2023-06-14T15:55:19Z) - GFlowOut: Dropout with Generative Flow Networks [76.59535235717631]
モンテカルロ・ドロップアウトは近似推論の比較的安価な方法として広く利用されている。
最近の研究は、ドロップアウトマスクを潜伏変数と見なすことができ、変動推論で推測できることを示している。
GFlowOutleveragesは、最近提案されたジェネレーティブフローネットワーク(GFlowNets)の確率的フレームワークを使用して、ドロップアウトマスク上の後部分布を学習する。
論文 参考訳(メタデータ) (2022-10-24T03:00:01Z) - Invertible Monotone Operators for Normalizing Flows [7.971699294672282]
正規化フローモデル確率は、単純な分布を複素分布に変換する可逆変換を学習することによって得られる。
単調作用素を用いたリプシッツ定数の問題を克服するための単調定式化を提案する。
結果として得られるモデルであるMonotone Flowsは、複数の密度推定ベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-10-15T03:40:46Z) - OneFlow: Redesign the Distributed Deep Learning Framework from Scratch [17.798586916628174]
OneFlowは、SBP(スプリット、ブロードキャスト、部分値)の抽象化とアクターモデルに基づく、新しい分散トレーニングフレームワークである。
SBPは既存のフレームワークよりも、データ並列処理やモデル並列処理のプログラミングがずっと簡単になります。
OneFlowは、最先端のフレームワーク上に構築された多くの有名なカスタマイズライブラリよりも優れています。
論文 参考訳(メタデータ) (2021-10-28T11:32:14Z) - Implementing graph neural networks with TensorFlow-Keras [1.6114012813668934]
グラフニューラルネットワークは、最近多くの注目を集めた汎用的な機械学習アーキテクチャです。
本技術報告では,Keras-Kerasモデルに対する畳み込み層とプール層の実装について述べる。
論文 参考訳(メタデータ) (2021-03-07T10:46:02Z) - Representational aspects of depth and conditioning in normalizing flows [33.4333537858003]
私たちは、分割の選択が深さのボトルネックではないことを表現的に示しています。
また、浅いアフィンカップリングネットワークはワッサーシュタイン距離の普遍近似器であることを示す。
論文 参考訳(メタデータ) (2020-10-02T18:15:45Z) - You say Normalizing Flows I see Bayesian Networks [11.23030807455021]
正規化フローは、予め定義された位相と各ノードでの学習可能な密度を持つベイズネットワークに還元されることを示す。
正規化フローにおける多重変換の積み重ねは独立性の仮定を緩和し、モデル分布を絡ませることを示す。
我々は,その深さに関わらず,アフィン正規化流れの不均一性を証明した。
論文 参考訳(メタデータ) (2020-06-01T11:54:50Z) - Evolving Normalization-Activation Layers [100.82879448303805]
我々は、うまく機能しない候補層を迅速にフィルタリングする効率的な拒絶プロトコルを開発した。
EvoNormsは、新しい正規化活性化層であり、新しい構造を持ち、時には驚くべき構造を持つ。
我々の実験は、EvoNormsがResNets、MobileNets、EfficientNetsなどの画像分類モデルでうまく機能していることを示している。
論文 参考訳(メタデータ) (2020-04-06T19:52:48Z) - Gaussianization Flows [113.79542218282282]
そこで本研究では,サンプル生成における効率のよい繰り返しと効率のよい逆変換を両立できる新しい型正規化フローモデルを提案する。
この保証された表現性のため、サンプル生成の効率を損なうことなく、マルチモーダルなターゲット分布をキャプチャできる。
論文 参考訳(メタデータ) (2020-03-04T08:15:06Z) - Semi-Supervised Learning with Normalizing Flows [54.376602201489995]
FlowGMMは、フローの正規化を伴う生成半教師付き学習におけるエンドツーエンドのアプローチである。
我々は AG-News や Yahoo Answers のテキストデータなど,幅広いアプリケーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2019-12-30T17:36:33Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。