論文の概要: bnRep: A repository of Bayesian networks from the academic literature
- arxiv url: http://arxiv.org/abs/2409.19158v1
- Date: Fri, 27 Sep 2024 21:50:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 04:11:01.548138
- Title: bnRep: A repository of Bayesian networks from the academic literature
- Title(参考訳): bnRep:学術文献からのベイズ的ネットワークのリポジトリ
- Authors: Manuele Leonelli,
- Abstract要約: 本稿では,文書化されたベイズネットワークの包括的コレクションを提供するオープンソースRパッケージであるbnRepを紹介する。
bnRepはbnlearnや他のRパッケージとシームレスに統合され、ネットワーク探索のためのインタラクティブなツールを提供する。
- 参考スコア(独自算出の注目度): 1.6860963320038902
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian networks (BNs) are widely used for modeling complex systems with uncertainty, yet repositories of pre-built BNs remain limited. This paper introduces bnRep, an open-source R package offering a comprehensive collection of documented BNs, facilitating benchmarking, replicability, and education. With over 200 networks from academic publications, bnRep integrates seamlessly with bnlearn and other R packages, providing users with interactive tools for network exploration.
- Abstract(参考訳): ベイズネットワーク(BN)は不確実性のある複雑なシステムのモデリングに広く用いられているが、事前に構築されたBNのリポジトリは限られている。
本稿では、bnRepについて紹介する。bnRepは、文書化されたBNの集合を包括的に提供し、ベンチマーク、複製性、教育を容易にするオープンソースRパッケージである。
学術出版物の200以上のネットワークで、bnRepはbnlearnや他のRパッケージとシームレスに統合され、ネットワーク探索のためのインタラクティブなツールを提供する。
関連論文リスト
- Boosting Residual Networks with Group Knowledge [75.73793561417702]
最近の研究は、暗黙のアンサンブルモデルの新しい視点から、残余ネットワークを理解する。
深度学習や刺激訓練といった従来の手法は, サンプリングとトレーニングにより, 残留ネットワークの性能をさらに向上させてきた。
残余ネットワークの性能を高めるためのグループ知識に基づくトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-26T05:39:57Z) - DreamNet: A Deep Riemannian Network based on SPD Manifold Learning for
Visual Classification [36.848148506610364]
SPD行列学習のための新しいアーキテクチャを提案する。
深層表現を豊かにするために、SPDNetをバックボーンとして採用する。
次に、SRAEの表現能力を高めるために、ショートカット接続を持つ残余ブロックをいくつか挿入する。
論文 参考訳(メタデータ) (2022-06-16T07:15:20Z) - Structured Sparsity Learning for Efficient Video Super-Resolution [99.1632164448236]
我々は、ビデオ超解像(VSR)モデルの特性に応じて、構造化スパシティ学習(SSL)と呼ばれる構造化プルーニング手法を開発する。
SSLでは,残差ブロック,リカレントネットワーク,アップサンプリングネットワークなど,VSRモデルのいくつかの重要なコンポーネントに対するプルーニングスキームを設計する。
論文 参考訳(メタデータ) (2022-06-15T17:36:04Z) - ResIST: Layer-Wise Decomposition of ResNets for Distributed Training [10.336445584242933]
rm textttResISTはResidual Networks(ResNets)のための分散トレーニングプロトコルである
rm textttResISTは、ネットワークパラメータのごく一部しか各マシンに通信せず、トレーニング中に完全なモデルを使用することはない。
rm textttResISTは、モデルの性能に関して競争力がありながら、ウォールクロックのトレーニング時間を減少させる。
論文 参考訳(メタデータ) (2021-07-02T10:48:50Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - Efficient Transfer Learning via Joint Adaptation of Network Architecture
and Weight [66.8543732597723]
近年のニューラルネットワーク探索(NAS)は,十分なネットワーク探索空間を確立することで伝達学習を支援する。
本稿では,2つのモジュールからなる新しいフレームワークを提案する。アーキテクチャトランスファーのためのニューラルアーキテクチャ探索モジュールと,ウェイトトランスファーのためのニューラルウェイト探索モジュールである。
これら2つのモジュールは、減らされたスーパーネットワークに基づいてターゲットタスクを探索するので、ソースタスクのみを訓練する必要がある。
論文 参考訳(メタデータ) (2021-05-19T08:58:04Z) - CREPO: An Open Repository to Benchmark Credal Network Algorithms [78.79752265884109]
クレダルネットワークは、確率質量関数の集合であるクレダルに基づく不正確な確率的グラフィカルモデルである。
CREMAと呼ばれるJavaライブラリが最近リリースされ、クレダルネットワークをモデル化し、処理し、クエリする。
我々は,これらのモデル上での推論タスクの正確な結果とともに,合成クレダルネットワークのオープンリポジトリであるcrrepoを提案する。
論文 参考訳(メタデータ) (2021-05-10T07:31:59Z) - NetReAct: Interactive Learning for Network Summarization [60.18513812680714]
本論文では,テキストコーポラによる感覚生成のネットワーク可視化を支援する,新しいインタラクティブネットワーク要約アルゴリズムであるNetReActを提案する。
netreactが、他の非自明なベースラインよりも、隠れたパターンを明らかにする高品質な要約や視覚化の生成に成功していることを示す。
論文 参考訳(メタデータ) (2020-12-22T03:56:26Z) - Hybrid Backpropagation Parallel Reservoir Networks [8.944918753413827]
本稿では,貯水池のランダムな時間的特徴と深層ニューラルネットワークの読み出し能力と,バッチ正規化を併用した新しいハイブリッドネットワークを提案する。
我々の新しいネットワークはLSTMやGRUよりも優れていることを示す。
また, HBP-ESN M-Ring と呼ばれる新しいメタリング構造を組み込むことで, 1つの大きな貯水池に類似した性能を実現し, メモリ容量の最大化を図っている。
論文 参考訳(メタデータ) (2020-10-27T21:03:35Z) - Bayesian Sparsification Methods for Deep Complex-valued Networks [18.00411355850543]
Sparse Variational Dropout を複素数値ニューラルネットワークに拡張する。
我々はC値ネットワークの性能圧縮トレードオフを2つのタスクで大規模に数値的に研究する。
我々は、Trabelsiらによる、50-100xで圧縮された複雑な値のネットワークを、小さなパフォーマンスペナルティで、MusicNet上で再現する。
論文 参考訳(メタデータ) (2020-03-25T13:57:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。