論文の概要: Reconstructing Bayesian Networks on a Quantum Annealer
- arxiv url: http://arxiv.org/abs/2204.03526v1
- Date: Thu, 7 Apr 2022 15:53:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 23:57:45.529293
- Title: Reconstructing Bayesian Networks on a Quantum Annealer
- Title(参考訳): 量子アニール上のベイズネットワークの再構成
- Authors: Enrico Zardini, Massimo Rizzoli, Sebastiano Dissegna, Enrico
Blanzieri, Davide Pastorello
- Abstract要約: O'Gormanらは、このタスクを符号化するアルゴリズムを提案しているが、実験的な評価は提供していない。
i) O'GormanのアルゴリズムをPythonで実装し,(ii)大小のBNSL問題に対処するDeput et imperaアプローチを提案する。
その結果、小サイズのBNSLインスタンスに対するO'Gormanの定式化の有効性と、O'Gormanのアルゴリズムの直接実行におけるDeput et imperaアプローチの優位性を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Bayesian networks are widely used probabilistic graphical models, whose
structure is hard to learn starting from the generated data. O'Gorman et al.
have proposed an algorithm to encode this task, i.e., the Bayesian network
structure learning (BSNL), into a form that can be solved through quantum
annealing, but they have not provided an experimental evaluation of it. In this
paper, we present (i) an implementation in Python of O'Gorman's algorithm, (ii)
a divide et impera approach that allows addressing BNSL problems of larger
sizes in order to overcome the limitations imposed by the current
architectures, and (iii) their empirical evaluation. Specifically, several
problems with an increasing number of variables have been used in the
experiments. The results have shown the effectiveness of O'Gorman's formulation
for BNSL instances of small sizes, and the superiority of the divide et impera
approach on the direct execution of O'Gorman's algorithm.
- Abstract(参考訳): ベイズネットワークは確率的グラフィカルモデルとして広く使われており、その構造は生成されたデータから学ぶのが難しい。
o'gormanらは、このタスク、すなわちベイズネットワーク構造学習(bsnl)を量子アニーリングによって解くことができる形式にエンコードするアルゴリズムを提案したが、実験的な評価はしていない。
本稿では,本稿で紹介する。
i) O'GormanのアルゴリズムのPythonにおける実装。
(ii)現在のアーキテクチャによって課される制限を克服するために、より大きなサイズのbnsl問題に対処するための分断とインペラアプローチ
(iii)経験的評価。
特に、多くの変数が実験で使われている問題もいくつかある。
その結果、小サイズのBNSLインスタンスに対するO'Gormanの定式化の有効性と、O'Gormanのアルゴリズムの直接実行におけるDeput et imperaアプローチの優位性を示した。
関連論文リスト
- The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - BigBraveBN: algorithm of structural learning for bayesian networks with
a large number of nodes [0.0]
本稿では,多数のノード(100以上)を持つ大規模ベイズネットワークを学習するためのBigBraveBNアルゴリズムを提案する。
このアルゴリズムは、複数のグループのインスタンスの相互発生を測定するブレーブ係数を利用する。
記事では、BigBraveBNの性能を、離散的かつ連続的な複数のデータセット上の既存のソリューションと比較する。
論文 参考訳(メタデータ) (2022-08-22T13:43:57Z) - Quantum Approximate Optimization Algorithm for Bayesian network
structure learning [1.332091725929965]
本研究では、ベイジアンネットワーク構造学習問題の解法として、特定の種類の変分量子アルゴリズム、量子近似最適化アルゴリズムを用いた。
その結果、量子近似最適化アルゴリズムは、最先端の手法と量子ノイズに対する定量的レジリエンスとの競合結果を提供することを示した。
論文 参考訳(メタデータ) (2022-03-04T16:11:34Z) - A Sparse Structure Learning Algorithm for Bayesian Network
Identification from Discrete High-Dimensional Data [0.40611352512781856]
本稿では,高次元離散データから疎構造ベイズネットワークを学習する問題に対処する。
本稿では,空間特性とDAG特性を同時に満足するスコア関数を提案する。
具体的には,アルゴリズムを高次元データで効率的に動作させるため,最適化アルゴリズムに分散低減法を用いる。
論文 参考訳(メタデータ) (2021-08-21T12:21:01Z) - Improved Acyclicity Reasoning for Bayesian Network Structure Learning
with Constraint Programming [0.0]
離散データからベイズネットワーク(BNSL)の構造を学習することはNPハードタスクであることが知られている。
本研究では,可能なクラスタカットのサブセットを発見するための新しい時間アルゴリズムを提案する。
最適ではないにもかかわらず、性能は桁違いに向上することを示す。
結果として得られる解法は、BNSL問題に対する最先端の解法である GOBNILP と好意的に比較できる。
論文 参考訳(メタデータ) (2021-06-23T09:46:11Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - An Empirical Study of Derivative-Free-Optimization Algorithms for
Targeted Black-Box Attacks in Deep Neural Networks [8.368543987898732]
本稿では,BOBYQAに基づく新しいアルゴリズムの導入とともに,既存のDFOベースの4つのアルゴリズムについて考察する。
我々は、これらのアルゴリズムを様々な設定で比較し、それらを誤分類した画像の数に応じて比較する。
実験では、敵の例を見つける確率が、使用されるアルゴリズムと攻撃の設定の両方に依存するかを明らかにする。
論文 参考訳(メタデータ) (2020-12-03T13:32:20Z) - Quantum-Inspired Algorithms from Randomized Numerical Linear Algebra [53.46106569419296]
我々は、リコメンダシステムと最小二乗回帰のためのクエリをサポートする古典的な(量子でない)動的データ構造を作成する。
これらの問題に対する以前の量子インスパイアされたアルゴリズムは、レバレッジやリッジレベレッジスコアを偽装してサンプリングしていると我々は主張する。
論文 参考訳(メタデータ) (2020-11-09T01:13:07Z) - A Constraint-Based Algorithm for the Structural Learning of
Continuous-Time Bayesian Networks [70.88503833248159]
連続時間ベイズネットワークの構造を学習するための制約に基づく最初のアルゴリズムを提案する。
我々は,条件付き独立性を確立するために提案した,異なる統計的テストと基礎となる仮説について論じる。
論文 参考訳(メタデータ) (2020-07-07T07:34:09Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。