論文の概要: torchgfn: A PyTorch GFlowNet library
- arxiv url: http://arxiv.org/abs/2305.14594v2
- Date: Tue, 29 Aug 2023 14:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 18:19:26.996909
- Title: torchgfn: A PyTorch GFlowNet library
- Title(参考訳): torchgfn: PyTorch GFlowNetライブラリ
- Authors: Salem Lahlou, Joseph D. Viviano, Victor Schmidt, Yoshua Bengio
- Abstract要約: torchgfnはPyTorchライブラリで、このニーズに対処することを目指している。
環境のためのシンプルなAPIと、サンプルと損失のための有用な抽象化を提供する。
- 参考スコア(独自算出の注目度): 56.071033896777784
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing popularity of generative flow networks (GFlowNets or GFNs) from a
range of researchers with diverse backgrounds and areas of expertise
necessitates a library which facilitates the testing of new features such as
training losses that can be easily compared to standard benchmark
implementations, or on a set of common environments. torchgfn is a PyTorch
library that aims to address this need. It provides users with a simple API for
environments and useful abstractions for samplers and losses. Multiple examples
are provided, replicating and unifying published results. The code is available
in https://github.com/saleml/torchgfn.
- Abstract(参考訳): GFlowNetsやGFNsなど,さまざまなバックグラウンドや専門分野を持つ研究者からのジェネレーティブフローネットワーク(ジェネレーティブフローネットワーク)の普及は,標準的なベンチマーク実装と簡単に比較可能なトレーニング損失や,一般的な環境のセットなど,新機能のテストを容易にするライブラリを必要としている。
torchgfnはPyTorchライブラリで、このニーズに対処することを目指している。
環境のためのシンプルなAPIと、サンプルと損失のための有用な抽象化を提供する。
複数の例が提供され、公開結果を複製し、統一する。
コードはhttps://github.com/saleml/torchgfnで入手できる。
関連論文リスト
- Comgra: A Tool for Analyzing and Debugging Neural Networks [35.89730807984949]
PyTorchで使用するオープンソースのpythonライブラリであるcomgraを紹介します。
Comgraはモデルの内部アクティベーションに関するデータを抽出し、GUIで整理する。
要約統計と個々のデータポイントの両方を示し、トレーニングの初期段階と後期を比較し、関心のある個々のサンプルに注目し、ネットワークを通しての勾配の流れを可視化する。
論文 参考訳(メタデータ) (2024-07-31T14:57:23Z) - Local Search GFlowNets [85.0053493167887]
Generative Flow Networks (GFlowNets) は、報酬に比例した離散オブジェクト上の分布を学習するアモータイズされたサンプリング手法である。
GFlowNetsは、多様なサンプルを生成する素晴らしい能力を示していますが、広いサンプル空間での過剰な探索のために、常に高い報酬を持つサンプルを生成するのに苦労することがあります。
本稿では,局所探索によるGFlowNetsの学習を提案する。
論文 参考訳(メタデータ) (2023-10-04T10:27:17Z) - BayesDLL: Bayesian Deep Learning Library [29.624531252627484]
大規模ディープネットワークのためのPyTorch用の新しいベイズニューラルネットワークライブラリをリリースする。
我々のライブラリは,変分推論,MCドロップアウト,近似勾配MCMC,ラプラス近似といった主流推論アルゴリズムを実装している。
論文 参考訳(メタデータ) (2023-09-22T15:27:54Z) - SPRINT: A Unified Toolkit for Evaluating and Demystifying Zero-shot
Neural Sparse Retrieval [92.27387459751309]
ニューラルスパース検索を評価するための統一PythonツールキットであるSPRINTを提供する。
我々は、よく認識されているベンチマークBEIRにおいて、強く再現可能なゼロショットスパース検索ベースラインを確立する。
SPLADEv2は、元のクエリとドキュメントの外で、ほとんどのトークンでスパース表現を生成する。
論文 参考訳(メタデータ) (2023-07-19T22:48:02Z) - TyXe: Pyro-based Bayesian neural nets for Pytorch [12.343312954353639]
我々はPytorchとPyro上に構築されたベイズニューラルネットワークライブラリTyXeを紹介する。
私たちの主要な設計原則は、アーキテクチャ、事前、推論、そして可能性仕様をきれいに分離することです。
既存のパッケージとは対照的に、TyXeはいかなるレイヤクラスも実装せず、代わりに一般的なPytorchコードで定義されたアーキテクチャに依存している。
論文 参考訳(メタデータ) (2021-10-01T09:04:26Z) - Solo-learn: A Library of Self-supervised Methods for Visual
Representation Learning [83.02597612195966]
solo-learnは視覚表現学習のための自己指導型のメソッドのライブラリである。
Pythonで実装され、PytorchとPytorch Lightningを使用して、このライブラリは研究と業界のニーズの両方に適合する。
論文 参考訳(メタデータ) (2021-08-03T22:19:55Z) - Efficient Graph Deep Learning in TensorFlow with tf_geometric [53.237754811019464]
グラフ深層学習のための効率的でフレンドリなライブラリであるtf_geometricを導入する。
tf_geometricは、人気のあるGNNの実装と同様に、グラフニューラルネットワーク(GNN)を構築するためのカーネルライブラリを提供する。
カーネルライブラリは、グラフデータ構造、グラフマップ-リデュースフレームワーク、グラフミニバッチ戦略など、効率的なGNNを構築するためのインフラストラクチャで構成されている。
論文 参考訳(メタデータ) (2021-01-27T17:16:36Z) - torchgpipe: On-the-fly Pipeline Parallelism for Training Giant Models [19.024035785367044]
我々は,GPipe によるチェックポインティングによるマイクロバッチパイプライン並列化を実現するために,PyTorch で用意されたライブラリを設計,実装した。
このような環境下でパイプライン並列性を完全に活用するには各コンポーネントが必要であることを示し、ライブラリの効率性を実証する。
論文 参考訳(メタデータ) (2020-04-21T11:27:00Z) - Torch-Struct: Deep Structured Prediction Library [138.5262350501951]
本稿では,構造化予測ライブラリTorch-Structを紹介する。
Torch-Structには,シンプルで柔軟な分散ベースのAPIを通じてアクセスされる,確率的構造の広範なコレクションが含まれている。
論文 参考訳(メタデータ) (2020-02-03T16:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。