論文の概要: gfnx: Fast and Scalable Library for Generative Flow Networks in JAX
- arxiv url: http://arxiv.org/abs/2511.16592v1
- Date: Thu, 20 Nov 2025 17:44:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.77093
- Title: gfnx: Fast and Scalable Library for Generative Flow Networks in JAX
- Title(参考訳): gfnx:JAXのジェネレーティブフローネットワークのための高速でスケーラブルなライブラリ
- Authors: Daniil Tiapkin, Artem Agarkov, Nikita Morozov, Ian Maksimov, Askar Tsyganov, Timofei Gritsaev, Sergey Samsonov,
- Abstract要約: 本稿では,JAX で記述された生成フローネットワーク (GFlowNets) のトレーニングと評価を行うパッケージ gfnx について述べる。
gfnxは、GFlowNetsをトレーニングするためのコア目標の単一ファイル実装とともに、ベンチマークのための環境とメトリクスの広範なセットを提供する。
さまざまなタスクにおいて、gfnxはPytorchベースのベンチマークと比較すると、ウォールクロックの大幅な高速化を実現している。
- 参考スコア(独自算出の注目度): 12.748861864193623
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present gfnx, a fast and scalable package for training and evaluating Generative Flow Networks (GFlowNets) written in JAX. gfnx provides an extensive set of environments and metrics for benchmarking, accompanied with single-file implementations of core objectives for training GFlowNets. We include synthetic hypergrids, multiple sequence generation environments with various editing regimes and particular reward designs for molecular generation, phylogenetic tree construction, Bayesian structure learning, and sampling from the Ising model energy. Across different tasks, gfnx achieves significant wall-clock speedups compared to Pytorch-based benchmarks (such as torchgfn library) and author implementations. For example, gfnx achieves up to 55 times speedup on CPU-based sequence generation environments, and up to 80 times speedup with the GPU-based Bayesian network structure learning setup. Our package provides a diverse set of benchmarks and aims to standardize empirical evaluation and accelerate research and applications of GFlowNets. The library is available on GitHub (https://github.com/d-tiapkin/gfnx) and on pypi (https://pypi.org/project/gfnx/). Documentation is available on https://gfnx.readthedocs.io.
- Abstract(参考訳): 本稿では,JAX で記述された生成フローネットワーク (GFlowNets) をトレーニングし,評価するための,高速でスケーラブルなパッケージ gfnx について述べる。
gfnxは、GFlowNetsをトレーニングするためのコア目標の単一ファイル実装とともに、ベンチマークのための環境とメトリクスの広範なセットを提供する。
本稿では, 合成ハイパーグリッド, 様々な編集機構を持つ多重配列生成環境, 分子生成, 系統樹構築, ベイズ構造学習, イジングモデルエネルギーからのサンプリングについて述べる。
タスクによってgfnxは、Pytorchベースのベンチマーク(Torchgfnライブラリなど)や作者の実装と比較して、ウォールクロックの大幅な高速化を実現している。
例えば、gfnxはCPUベースのシーケンス生成環境で最大55倍のスピードアップを実現し、GPUベースのベイジアンネットワーク構造学習セットアップで最大80倍のスピードアップを実現している。
本パッケージは,GFlowNetsの実証評価を標準化し,研究と応用を加速することを目的とした,多様なベンチマークのセットを提供する。
ライブラリはGitHub(https://github.com/d-tiapkin/gfnx)とpypi(https://pypi.org/project/gfnx/)で入手できる。
ドキュメントはhttps://gfnx.readthedocs.ioで公開されている。
関連論文リスト
- Comgra: A Tool for Analyzing and Debugging Neural Networks [35.89730807984949]
PyTorchで使用するオープンソースのpythonライブラリであるcomgraを紹介します。
Comgraはモデルの内部アクティベーションに関するデータを抽出し、GUIで整理する。
要約統計と個々のデータポイントの両方を示し、トレーニングの初期段階と後期を比較し、関心のある個々のサンプルに注目し、ネットワークを通しての勾配の流れを可視化する。
論文 参考訳(メタデータ) (2024-07-31T14:57:23Z) - Benchmarking Predictive Coding Networks -- Made Simple [48.652114040426625]
機械学習における予測符号化ネットワーク(PCN)の効率性とスケーラビリティの問題に取り組む。
そこで我々は,PCXと呼ばれる,パフォーマンスと簡易性を重視したライブラリを提案する。
我々は,PCNの既存アルゴリズムと,生物工学的な深層学習コミュニティで普及している他の手法を併用して,このようなベンチマークを広範囲に実施する。
論文 参考訳(メタデータ) (2024-07-01T10:33:44Z) - torchgfn: A PyTorch GFlowNet library [44.94532429787822]
我々は、このニーズに対処することを目的としたPyTorchライブラリであるTorchgfnを紹介します。
その中核的な貢献は、環境、ニューラルネットワークモジュールを扱い、目標を交換可能なコンポーネントとしてトレーニングするモジュールで分離されたアーキテクチャである。
これによってユーザは、高速なプロトタイピングと新しい研究を容易にする、シンプルだが強力なAPIをユーザに提供する。
論文 参考訳(メタデータ) (2023-05-24T00:20:59Z) - PARTIME: Scalable and Parallel Processing Over Time with Deep Neural
Networks [68.96484488899901]
PartIMEは、データが継続的にストリーミングされるたびにニューラルネットワークを高速化するように設計されたライブラリです。
PartIMEは、ストリームから利用可能になった時点で、各データサンプルの処理を開始する。
オンライン学習において、PartialIMEと古典的な非並列ニューラル計算を経験的に比較するために実験が行われる。
論文 参考訳(メタデータ) (2022-10-17T14:49:14Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z) - Efficient Graph Deep Learning in TensorFlow with tf_geometric [53.237754811019464]
グラフ深層学習のための効率的でフレンドリなライブラリであるtf_geometricを導入する。
tf_geometricは、人気のあるGNNの実装と同様に、グラフニューラルネットワーク(GNN)を構築するためのカーネルライブラリを提供する。
カーネルライブラリは、グラフデータ構造、グラフマップ-リデュースフレームワーク、グラフミニバッチ戦略など、効率的なGNNを構築するためのインフラストラクチャで構成されている。
論文 参考訳(メタデータ) (2021-01-27T17:16:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。