論文の概要: Learning Bayesian Networks with Annealing Machine
- arxiv url: http://arxiv.org/abs/2006.06926v4
- Date: Tue, 8 Aug 2023 11:45:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 18:09:54.358513
- Title: Learning Bayesian Networks with Annealing Machine
- Title(参考訳): アニーリングマシンによるベイズネットワークの学習
- Authors: Yuta Shikuri
- Abstract要約: アニーリングマシンは、スコアベースのベイズネットワーク構造学習に適用できる可能性がある。
候補となる親集合を高度に同定した効率的な変換法を提案する。
提案手法は,第4世代の富士通デジタルアニールの100ドルKの容量よりも少ない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have reported that annealing machines are capable of solving
combinatorial optimization problems with high accuracy. Annealing machines can
potentially be applied to score-based Bayesian network structure learning.
However, the bit capacity of an annealing machine is currently limited. To
utilize the annealing technology, converting score-based learning problems into
quadratic unconstrained binary optimizations within the bit capacity is
necessary. In this paper, we propose an efficient conversion method with the
advanced identification of candidate parent sets and their decomposition. We
also provide an integer programming problem to find the decomposition that
minimizes the number of required bits. Experimental results on $7$ benchmark
datasets with variables from $75$ to $223$ show that our approach requires less
bits than the $100$K bit capacity of the fourth-generation Fujitsu Digital
Annealer, a fully coupled annealing machine developed with semiconductor
technology. Moreover, we demonstrate that the Digital Annealer with our
conversion method outperforms existing algorithms on score maximization. These
results highlight the utility of annealing processors in learning Bayesian
networks.
- Abstract(参考訳): 近年の研究では、アニーリングマシンは高い精度で組合せ最適化問題を解決することができると報告されている。
アニーリングマシンは、スコアベースのベイズネットワーク構造学習に応用できる可能性がある。
しかし、現在、アニール機のビット容量は制限されている。
このアニール技術を利用するには、スコアベースの学習問題をビット容量内の2次非制約バイナリ最適化に変換する必要がある。
本稿では,候補となる親集合の高度な同定と分解による効率的な変換手法を提案する。
また、必要なビット数を最小限に抑える分解を見つけるために整数プログラミング問題も提供する。
変数が75ドルから223ドルまでのベンチマークデータセットによる実験結果から,半導体技術で開発された完全結合型アニールマシンであるFujitsu Digital Annealerの100ドルKビット容量よりも,我々のアプローチではビット数が少なくなることがわかった。
さらに,本手法によるディジタルアニーラは,既存のアルゴリズムよりもスコア最大化に優れることを示す。
これらの結果はベイズネットワーク学習におけるアニールプロセッサの有用性を強調した。
関連論文リスト
- Quality Scalable Quantization Methodology for Deep Learning on Edge [0.20718016474717196]
ディープラーニングアーキテクチャは重い計算を使い、計算エネルギーの大部分は畳み込みニューラルネットワークの畳み込み演算によって取り込まれる。
提案する研究は、ユビキタスコンピューティングデバイス上でエッジコンピューティングで機械学習技術を使用する場合、CNNのエネルギー消費とサイズを削減することである。
LeNetとConvNetsで実施された実験では、ゼロの6%まで増加し、メモリ節約量は82.4919%まで増加し、最先端の精度を維持した。
論文 参考訳(メタデータ) (2024-07-15T22:00:29Z) - Adaptive Computation Modules: Granular Conditional Computation For
Efficient Inference [13.000030080938078]
トランスモデルの計算コストは、低レイテンシや低消費電力のアプリケーションでは非効率である。
本稿では,適応計算モジュール (Adaptive Computation Module, ACM) を提案する。
コンピュータビジョンおよび音声認識におけるトランスフォーマーモデルの評価により,ACMを用いた置換層は,広範囲のユーザ定義予算において,下流の精度を低下させることなく,推論コストを大幅に低減することを示した。
論文 参考訳(メタデータ) (2023-12-15T20:39:43Z) - Adaptive Federated Minimax Optimization with Lower Complexities [82.51223883622552]
本稿では,これらのミニマックス問題の解法として,適応最小最適化アルゴリズム(AdaFGDA)を提案する。
運動量に基づく還元および局所SGD技術を構築し、様々な適応学習率を柔軟に組み込む。
論文 参考訳(メタデータ) (2022-11-14T12:32:18Z) - Low-bit Shift Network for End-to-End Spoken Language Understanding [7.851607739211987]
本稿では,連続パラメータを低ビットの2値に量子化する2乗量子化法を提案する。
これにより、高価な乗算演算を除去し、低ビット重みを使用すれば計算の複雑さを低減できる。
論文 参考訳(メタデータ) (2022-07-15T14:34:22Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Optimal qubit assignment and routing via integer programming [0.22940141855172028]
論理量子回路を2ビット接続に制限のあるハードウェアにマッピングする問題を考察する。
我々はこの問題を2変数のネットワークフロー定式化を用いて整数線形プログラムとしてモデル化する。
本稿では,回路の忠実度,全深度,クロストークの尺度などのコスト関数について考察する。
論文 参考訳(メタデータ) (2021-06-11T15:02:26Z) - Memristive Stochastic Computing for Deep Learning Parameter Optimization [1.6344851071810071]
コンピューティング(sc)は、ビットストリームとデジタルロジックを用いた様々な演算処理の低コストかつ低消費電力化を可能にするコンピューティングパラダイムである。
40nmの補完金属酸化物半導体(CMOS)プロセスを使用することで、拡張可能なアーキテクチャは1.55mm$2$を占め、文字認識タスクのために訓練されている間、畳み込みニューラルネットワーク(CNN)のパラメータを最適化する際に約167$mu$Wを消費します。
論文 参考訳(メタデータ) (2021-03-11T07:10:32Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z) - WrapNet: Neural Net Inference with Ultra-Low-Resolution Arithmetic [57.07483440807549]
ニューラルネットワークをアキュムレータの低分解能(8ビット)加算に適応させ,32ビットのアキュムレータに匹敵する分類精度を実現する手法を提案する。
ソフトウェアプラットフォームとハードウェアプラットフォームの両方において、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-07-26T23:18:38Z) - Parallelization Techniques for Verifying Neural Networks [52.917845265248744]
検証問題に基づくアルゴリズムを反復的に導入し、2つの分割戦略を探索する。
また、ニューラルネットワークの検証問題を単純化するために、ニューロンアクティベーションフェーズを利用する、高度に並列化可能な前処理アルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-04-17T20:21:47Z) - Channel Assignment in Uplink Wireless Communication using Machine
Learning Approach [54.012791474906514]
本稿では,アップリンク無線通信システムにおけるチャネル割り当て問題について検討する。
我々の目標は、整数チャネル割り当て制約を受ける全ユーザの総和率を最大化することです。
計算複雑性が高いため、機械学習アプローチは計算効率のよい解を得るために用いられる。
論文 参考訳(メタデータ) (2020-01-12T15:54:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。