論文の概要: Benchpress: a scalable and platform-independent workflow for
benchmarking structure learning algorithms for graphical models
- arxiv url: http://arxiv.org/abs/2107.03863v1
- Date: Thu, 8 Jul 2021 14:19:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 13:42:24.789754
- Title: Benchpress: a scalable and platform-independent workflow for
benchmarking structure learning algorithms for graphical models
- Title(参考訳): Benchpress:グラフィカルモデルのための構造学習アルゴリズムをベンチマークするためのスケーラブルでプラットフォームに依存しないワークフロー
- Authors: Felix L. Rios, Giusi Moffa, Jack Kuipers
- Abstract要約: 構造学習アルゴリズムのスケーラブルで再現性があり、プラットフォームに依存しないベンチマークを生成するためのベンチプレスと呼ばれる新しい自動化ワークフローを提案する。
Benchpress は BiDAG, bnlearn, GOBNILP, pcalg, r.blip, scikit-learn, TETRAD, trilearn などのライブラリから,最先端のアルゴリズムを多数提供している。
ベイジアンネットワークを4つの典型的なデータシナリオで学習するためのこのワークフローの適用性を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Describing the relationship between the variables in a study domain and
modelling the data generating mechanism is a fundamental problem in many
empirical sciences. Probabilistic graphical models are one common approach to
tackle the problem. Learning the graphical structure is computationally
challenging and a fervent area of current research with a plethora of
algorithms being developed. To facilitate the benchmarking of different
methods, we present a novel automated workflow, called benchpress for producing
scalable, reproducible, and platform-independent benchmarks of structure
learning algorithms for probabilistic graphical models. Benchpress is
interfaced via a simple JSON-file, which makes it accessible for all users,
while the code is designed in a fully modular fashion to enable researchers to
contribute additional methodologies. Benchpress currently provides an interface
to a large number of state-of-the-art algorithms from libraries such as BiDAG,
bnlearn, GOBNILP, pcalg, r.blip, scikit-learn, TETRAD, and trilearn as well as
a variety of methods for data generating models and performance evaluation.
Alongside user-defined models and randomly generated datasets, the software
tool also includes a number of standard datasets and graphical models from the
literature, which may be included in a benchmarking workflow. We demonstrate
the applicability of this workflow for learning Bayesian networks in four
typical data scenarios. The source code and documentation is publicly available
from http://github.com/felixleopoldo/benchpress.
- Abstract(参考訳): 研究領域における変数とデータ生成機構のモデル化の関係を記述することは、多くの経験科学において基本的な問題である。
確率的グラフィカルモデルはこの問題に対処するための一般的なアプローチである。
グラフィカルな構造を学ぶことは計算に困難であり、多くのアルゴリズムが開発されている現在の研究の余計な領域である。
確率的グラフィカルモデルのための構造学習アルゴリズムの,スケーラブルで再現性があり,プラットフォームに依存しないベンチマークを作成するための,ベンチプレスと呼ばれる新しい自動ワークフローを提案する。
benchpressはシンプルなjsonファイルでインターフェースされ、すべてのユーザがアクセスできるようにするが、コードは完全なモジュール方式で設計され、研究者は追加の方法論を貢献できる。
Benchpressは現在、BiDAG, bnlearn, GOBNILP, pcalg, r.blip, scikit-learn, TETRAD, trilearnなどのライブラリから多くの最先端アルゴリズムのインターフェースを提供し、データ生成モデルとパフォーマンス評価のための様々な方法を提供している。
ユーザ定義モデルとランダムに生成されたデータセットに加えて、ソフトウェアツールには、ベンチマークワークフローに含まれる可能性のある文献からの標準データセットやグラフィカルモデルも含まれている。
ベイジアンネットワークを4つの典型的なデータシナリオで学習するためのこのワークフローの適用性を示す。
ソースコードとドキュメントはhttp://github.com/felixleopoldo/benchpress.comから公開されている。
関連論文リスト
- Multi-View Stochastic Block Models [34.55723218769512]
我々は、この設定をキャプチャするtextitmulti-viewブロックモデルと呼ばれる、新しいモデルのファミリーを形式化する。
本モデルでは,まず,複数のグラフの和合体をネーティブに扱う効率的なアルゴリズムについて検討する。
そこで本研究では,各グラフの構造を別々に解析することで,従来の手法を確実に上回るアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-07T11:45:31Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - Bures-Wasserstein Means of Graphs [60.42414991820453]
本研究では,スムーズなグラフ信号分布の空間への埋め込みを通じて,グラフ平均を定義する新しいフレームワークを提案する。
この埋め込み空間において平均を求めることにより、構造情報を保存する平均グラフを復元することができる。
我々は,新しいグラフの意味の存在と特異性を確立し,それを計算するための反復アルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-05-31T11:04:53Z) - CodeGen2: Lessons for Training LLMs on Programming and Natural Languages [116.74407069443895]
我々はエンコーダとデコーダベースのモデルを単一のプレフィックスLMに統一する。
学習方法は,「フリーランチ」仮説の主張を考察する。
データ配信においては,混合分布と多言語学習がモデル性能に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2023-05-03T17:55:25Z) - A Closer Look at Few-shot Classification Again [68.44963578735877]
トレーニングフェーズと適応フェーズで構成されている。
トレーニングアルゴリズムと適応アルゴリズムが完全に絡み合っていることを実証的に証明する。
各フェーズのメタアナリシスは、いくつかの興味深い洞察を示し、いくつかのショット分類の重要な側面をよりよく理解するのに役立ちます。
論文 参考訳(メタデータ) (2023-01-28T16:42:05Z) - pyGSL: A Graph Structure Learning Toolkit [14.000763778781547]
pyGSLは、最先端のグラフ構造学習モデルの効率的な実装を提供するPythonライブラリである。
pyGSLはGPUフレンドリーな方法で書かれており、より大きなネットワークタスクにスケールすることができる。
論文 参考訳(メタデータ) (2022-11-07T14:23:10Z) - A Framework for Large Scale Synthetic Graph Dataset Generation [2.248608623448951]
この研究は、データセットをプロダクションサイズのグラフにスケールするスケーラブルな合成グラフ生成ツールを提案する。
このツールは、研究者にリリース可能なプロプライエタリなデータセットから、一連のパラメトリックモデルを学ぶ。
一連のデータセットにまたがるフレームワークの一般化可能性を示す。
論文 参考訳(メタデータ) (2022-10-04T22:41:33Z) - A Graph-Enhanced Click Model for Web Search [67.27218481132185]
ウェブ検索のための新しいグラフ強調クリックモデル(GraphCM)を提案する。
セッション内情報とセッション間情報の両方を、スパーシリティ問題とコールドスタート問題に活用する。
論文 参考訳(メタデータ) (2022-06-17T08:32:43Z) - Bayesian Deep Learning for Graphs [6.497816402045099]
論文は、この分野のほとんどのメソッドが構築される原則のレビューから始まり、続いてグラフ分類問題の研究が続く。
そこから、ディープアーキテクチャを漸進的に構築することで、グラフのディープラーニングに関する基本的なアイデアをベイジアンの世界に橋渡しします。
このフレームワークにより、離散的かつ連続的なエッジ特徴を持つグラフを考慮し、いくつかの分類タスクで最先端に達するのに十分な教師なしの埋め込みを生成することができる。
論文 参考訳(メタデータ) (2022-02-24T20:18:41Z) - Captum: A unified and generic model interpretability library for PyTorch [49.72749684393332]
我々は,PyTorch用の新しい,統一されたオープンソースモデル解釈可能性ライブラリを紹介する。
このライブラリには、多くの勾配と摂動に基づく属性アルゴリズムの汎用的な実装が含まれている。
分類モデルと非分類モデルの両方に使用できる。
論文 参考訳(メタデータ) (2020-09-16T18:57:57Z) - PHOTONAI -- A Python API for Rapid Machine Learning Model Development [2.414341608751139]
PHOTONAIは、機械学習モデル開発の簡素化と高速化を目的とした、ハイレベルなPython APIである。
これは統一フレームワークとして機能し、ユーザーは異なるツールボックスからのアルゴリズムをカスタムのアルゴリズムシーケンスに簡単にアクセスし、組み合わせることができる。
論文 参考訳(メタデータ) (2020-02-13T10:33:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。