論文の概要: Bayesian Network Structure Learning using Digital Annealer
- arxiv url: http://arxiv.org/abs/2006.06926v3
- Date: Thu, 19 May 2022 16:20:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 02:31:06.007143
- Title: Bayesian Network Structure Learning using Digital Annealer
- Title(参考訳): ディジタルアニールを用いたベイズネットワーク構造学習
- Authors: Yuta Shikuri
- Abstract要約: 候補となる親集合を分解する新しい手法を提案する。
提案手法を用いたDigital Annealerは,いくつかのベンチマークネットワーク上で既存のアルゴリズムよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Annealing processors, which solve a quadratic unconstrained binary
optimization (QUBO), are a potential breakthrough in improving the accuracy of
score-based Bayesian network structure learning. However, currently, the bit
capacity of an annealing processor is very limited. To utilize the power of
annealing processors, it is necessary to encode score-based learning problems
into QUBO within the upper bound of bits. In this paper, we propose a novel
approach with the decomposition of candidate parent sets. Experimental results
on benchmark networks with $37$ to $223$ variables show that our approach
requires lesser bits than the bit capacity of the fourth-generation Fujitsu
Digital Annealer, a fully coupled annealing processor developed with
semiconductor technology. Moreover, we demonstrate that the Digital Annealer
with our conversion method outperforms existing algorithms on some benchmark
networks. It is expected that our approach promotes the utility of annealing
processors in learning the Bayesian network.
- Abstract(参考訳): 二次的非制約バイナリ最適化(QUBO)を解くアナリングプロセッサは、スコアベースのベイズネットワーク構造学習の精度を向上させるための潜在的なブレークスルーである。
しかし、現在、アニールプロセッサのビット容量は非常に限られている。
アニーリングプロセッサのパワーを利用するには、スコアベースの学習問題をビットの上限内でQUBOにエンコードする必要がある。
本稿では,候補となる親集合を分解する手法を提案する。
337ドルから223ドルの変数を持つベンチマークネットワークの実験結果は、半導体技術で開発された完全結合アニーリングプロセッサである第4世代富士通デジタルアニーラーのビット容量よりも少ないビットを必要とすることを示している。
さらに,本手法によるディジタルアニーラは,ベンチマークネットワーク上で既存のアルゴリズムよりも優れていることを示す。
ベイズネットワークの学習において,プロセッサのアニーリングが有効であることが期待される。
関連論文リスト
- Quality Scalable Quantization Methodology for Deep Learning on Edge [0.20718016474717196]
ディープラーニングアーキテクチャは重い計算を使い、計算エネルギーの大部分は畳み込みニューラルネットワークの畳み込み演算によって取り込まれる。
提案する研究は、ユビキタスコンピューティングデバイス上でエッジコンピューティングで機械学習技術を使用する場合、CNNのエネルギー消費とサイズを削減することである。
LeNetとConvNetsで実施された実験では、ゼロの6%まで増加し、メモリ節約量は82.4919%まで増加し、最先端の精度を維持した。
論文 参考訳(メタデータ) (2024-07-15T22:00:29Z) - Adaptive Computation Modules: Granular Conditional Computation For
Efficient Inference [13.000030080938078]
トランスモデルの計算コストは、低レイテンシや低消費電力のアプリケーションでは非効率である。
本稿では,適応計算モジュール (Adaptive Computation Module, ACM) を提案する。
コンピュータビジョンおよび音声認識におけるトランスフォーマーモデルの評価により,ACMを用いた置換層は,広範囲のユーザ定義予算において,下流の精度を低下させることなく,推論コストを大幅に低減することを示した。
論文 参考訳(メタデータ) (2023-12-15T20:39:43Z) - Adaptive Federated Minimax Optimization with Lower Complexities [82.51223883622552]
本稿では,これらのミニマックス問題の解法として,適応最小最適化アルゴリズム(AdaFGDA)を提案する。
運動量に基づく還元および局所SGD技術を構築し、様々な適応学習率を柔軟に組み込む。
論文 参考訳(メタデータ) (2022-11-14T12:32:18Z) - Low-bit Shift Network for End-to-End Spoken Language Understanding [7.851607739211987]
本稿では,連続パラメータを低ビットの2値に量子化する2乗量子化法を提案する。
これにより、高価な乗算演算を除去し、低ビット重みを使用すれば計算の複雑さを低減できる。
論文 参考訳(メタデータ) (2022-07-15T14:34:22Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Optimal qubit assignment and routing via integer programming [0.22940141855172028]
論理量子回路を2ビット接続に制限のあるハードウェアにマッピングする問題を考察する。
我々はこの問題を2変数のネットワークフロー定式化を用いて整数線形プログラムとしてモデル化する。
本稿では,回路の忠実度,全深度,クロストークの尺度などのコスト関数について考察する。
論文 参考訳(メタデータ) (2021-06-11T15:02:26Z) - Memristive Stochastic Computing for Deep Learning Parameter Optimization [1.6344851071810071]
コンピューティング(sc)は、ビットストリームとデジタルロジックを用いた様々な演算処理の低コストかつ低消費電力化を可能にするコンピューティングパラダイムである。
40nmの補完金属酸化物半導体(CMOS)プロセスを使用することで、拡張可能なアーキテクチャは1.55mm$2$を占め、文字認識タスクのために訓練されている間、畳み込みニューラルネットワーク(CNN)のパラメータを最適化する際に約167$mu$Wを消費します。
論文 参考訳(メタデータ) (2021-03-11T07:10:32Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z) - WrapNet: Neural Net Inference with Ultra-Low-Resolution Arithmetic [57.07483440807549]
ニューラルネットワークをアキュムレータの低分解能(8ビット)加算に適応させ,32ビットのアキュムレータに匹敵する分類精度を実現する手法を提案する。
ソフトウェアプラットフォームとハードウェアプラットフォームの両方において、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-07-26T23:18:38Z) - Parallelization Techniques for Verifying Neural Networks [52.917845265248744]
検証問題に基づくアルゴリズムを反復的に導入し、2つの分割戦略を探索する。
また、ニューラルネットワークの検証問題を単純化するために、ニューロンアクティベーションフェーズを利用する、高度に並列化可能な前処理アルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-04-17T20:21:47Z) - Channel Assignment in Uplink Wireless Communication using Machine
Learning Approach [54.012791474906514]
本稿では,アップリンク無線通信システムにおけるチャネル割り当て問題について検討する。
我々の目標は、整数チャネル割り当て制約を受ける全ユーザの総和率を最大化することです。
計算複雑性が高いため、機械学習アプローチは計算効率のよい解を得るために用いられる。
論文 参考訳(メタデータ) (2020-01-12T15:54:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。