論文の概要: Fast Parallel Exact Inference on Bayesian Networks: Poster
- arxiv url: http://arxiv.org/abs/2212.04241v1
- Date: Thu, 8 Dec 2022 12:50:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 16:08:18.015982
- Title: Fast Parallel Exact Inference on Bayesian Networks: Poster
- Title(参考訳): ベイジアンネットワーク上での高速並列実行推論:ポスター
- Authors: Jiantong Jiang, Zeyi Wen, Atif Mansoor, Ajmal Mian
- Abstract要約: 本稿では,マルチコアCPU上での高速BN精度推論手法であるFast-BNIを提案する。
Fast-BNIは、ハイブリッド並列性による正確な推論の効率を高める。
また、BN正確な推論のボトルネック操作をさらに単純化する手法を提案する。
- 参考スコア(独自算出の注目度): 33.63789467363392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian networks (BNs) are attractive, because they are graphical and
interpretable machine learning models. However, exact inference on BNs is
time-consuming, especially for complex problems. To improve the efficiency, we
propose a fast BN exact inference solution named Fast-BNI on multi-core CPUs.
Fast-BNI enhances the efficiency of exact inference through hybrid parallelism
that tightly integrates coarse- and fine-grained parallelism. We also propose
techniques to further simplify the bottleneck operations of BN exact inference.
Fast-BNI source code is freely available at
https://github.com/jjiantong/FastBN.
- Abstract(参考訳): ベイズネットワーク(BN)はグラフィカルで解釈可能な機械学習モデルであるため、魅力的である。
しかし、BNに関する正確な推論は特に複雑な問題に対して時間を要する。
効率を向上させるため,マルチコアcpuにfast-bniと呼ばれる高速bn正確な推論ソリューションを提案する。
Fast-BNIは、粗い並列性ときめ細かい並列性を密に統合するハイブリッド並列性を通じて、正確な推論の効率を高める。
また,bn精密推論のボトルネック操作をさらに単純化する手法を提案する。
Fast-BNIソースコードはhttps://github.com/jjiantong/FastBNで無料で入手できる。
関連論文リスト
- Benchmarking Edge AI Platforms for High-Performance ML Inference [0.0]
エッジコンピューティングは、通信遅延を減らし、リアルタイム処理を可能にする能力から、高性能で異質なSystem-on-Chipソリューションの興隆を促進している。
現在のアプローチでは、現代的なハードウェアをスケールダウンすることが多いが、ニューラルネットワークワークロードのパフォーマンス特性は、大きく異なる場合がある。
我々は、CPUのみ、CPU/GPU、CPU/NPU統合ソリューション間で、様々な線形代数およびニューラルネットワーク推論タスクのレイテンシとスループットを比較した。
論文 参考訳(メタデータ) (2024-09-23T08:27:27Z) - BEBLID: Boosted efficient binary local image descriptor [2.8538628855541397]
本稿では,効率の良いバイナリ画像記述子であるBEBLIDを紹介する。
以前の実数値ディスクリプタであるBELIDを改善して,マッチングと精度の向上を実現しています。
実験では BEBLID は SIFT に近い精度で ORB よりも計算効率が良い。
論文 参考訳(メタデータ) (2024-02-07T00:14:32Z) - Tensor Slicing and Optimization for Multicore NPUs [2.670309629218727]
本稿では,Slicing Optimization (TSO) と呼ばれるマルチコアNPUに対するコンパイラ最適化パスを提案する。
TSOは、一連のCNNモデルの実行時間を最小化する最高のテンソルスライシングを特定する。
その結果、TSOは一連のCNNモデルの実行時間を最小化する最適なテンソルスライシングを識別できることがわかった。
論文 参考訳(メタデータ) (2023-04-06T12:03:03Z) - Fast Parallel Bayesian Network Structure Learning [37.46185698921754]
我々は、BN構造学習の効率を高めるために、マルチコアCPU上でFast-BNSと呼ばれる高速解を提案する。
Fast-BNSは、不要なCIテストの数を減らすために、エッジのCIテストを同じエンドポイントでグループ化するなど、一連の効率最適化によって実現されている。
総合的な実験的研究により、Fast-BNSのシーケンシャルバージョンは、Fast-BNSの50倍高速であることが示されている。
論文 参考訳(メタデータ) (2022-12-08T13:17:02Z) - Improved Branch and Bound for Neural Network Verification via Lagrangian
Decomposition [161.09660864941603]
ニューラルネットワークの入出力特性を公式に証明するためのブランチとバウンド(BaB)アルゴリズムのスケーラビリティを改善します。
活性化に基づく新しい分岐戦略とBaBフレームワークであるブランチとデュアルネットワーク境界(BaDNB)を提案する。
BaDNBは、従来の完全検証システムを大きなマージンで上回り、対数特性で平均検証時間を最大50倍に削減した。
論文 参考訳(メタデータ) (2021-04-14T09:22:42Z) - Parareal Neural Networks Emulating a Parallel-in-time Algorithm [1.988145627448243]
ディープニューラルネットワーク(DNN)が深まるにつれて、トレーニング時間が増加する。
本稿では,並列ニューラルネットワークを構築するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T02:03:39Z) - Beta-CROWN: Efficient Bound Propagation with Per-neuron Split
Constraints for Complete and Incomplete Neural Network Verification [151.62491805851107]
私たちは、ニューロン毎の分割を完全にエンコードできるバウンド伝搬ベースの検証器である$beta$-crownを開発した。
Beta$-CROWNはLPベースのBaB法よりも3桁近い速さで堅牢性検証が可能です。
BaBを早期に終了することにより、不完全な検証にも使用できます。
論文 参考訳(メタデータ) (2021-03-11T11:56:54Z) - Batch Normalization with Enhanced Linear Transformation [73.9885755599221]
線形変換モジュールを適切に拡張することで、バッチ正規化(BN)の能力を効果的に改善できる
私たちのメソッドはBNETと呼ばれ、ほとんどのディープラーニングライブラリで2~3行のコードで実装できます。
我々は、BNETがネットワークトレーニングの収束を加速し、より大きな重み付けで重要なニューロンを割り当てることで空間情報を強化することを検証する。
論文 参考訳(メタデータ) (2020-11-28T15:42:36Z) - Fast and Complete: Enabling Complete Neural Network Verification with
Rapid and Massively Parallel Incomplete Verifiers [112.23981192818721]
BaB プロセス中に線形計画法 (LP) を置き換えるために, 逆モード線形緩和に基づく解析法 (LiRPA) を提案する。
LPとは異なり、LiRPAを適用すると、より弱い境界が得られ、分割時にサブドメインのコンフリクトをチェックすることもできない。
既存のLPベースのアプローチと比較して、桁違いのスピードアップを示す。
論文 参考訳(メタデータ) (2020-11-27T16:42:12Z) - Distillation Guided Residual Learning for Binary Convolutional Neural
Networks [83.6169936912264]
Binary CNN(BCNN)とFloating Point CNN(FCNN)のパフォーマンスギャップを埋めることは難しい。
我々は,この性能差が,BCNNとFCNNの中間特徴写像の間にかなりの残差をもたらすことを観察した。
性能ギャップを最小限に抑えるため,BCNN は FCNN と同様の中間特徴写像を生成する。
このトレーニング戦略、すなわち、FCNNから派生したブロックワイド蒸留損失で各バイナリ畳み込みブロックを最適化することで、BCNNをより効果的に最適化する。
論文 参考訳(メタデータ) (2020-07-10T07:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。