論文の概要: Approximate learning of high dimensional Bayesian network structures via
pruning of Candidate Parent Sets
- arxiv url: http://arxiv.org/abs/2006.04753v2
- Date: Thu, 10 Sep 2020 15:48:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 01:16:05.104151
- Title: Approximate learning of high dimensional Bayesian network structures via
pruning of Candidate Parent Sets
- Title(参考訳): 候補親集合のプルーニングによる高次元ベイズネットワーク構造の近似学習
- Authors: Zhigao Guo and Anthony C. Constantinou
- Abstract要約: 正確な学習は、適度または高い複雑性のネットワークには適用できないため、近似解が存在する。
いくつかの近似アルゴリズムは数千の変数を扱うように最適化されているが、それでもそのような高次元構造を学べないかもしれない。
本稿では,高次元問題を対象とした親集合のサイズ決定戦略について検討する。
- 参考スコア(独自算出の注目度): 6.85316573653194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Score-based algorithms that learn Bayesian Network (BN) structures provide
solutions ranging from different levels of approximate learning to exact
learning. Approximate solutions exist because exact learning is generally not
applicable to networks of moderate or higher complexity. In general,
approximate solutions tend to sacrifice accuracy for speed, where the aim is to
minimise the loss in accuracy and maximise the gain in speed. While some
approximate algorithms are optimised to handle thousands of variables, these
algorithms may still be unable to learn such high dimensional structures. Some
of the most efficient score-based algorithms cast the structure learning
problem as a combinatorial optimisation of candidate parent sets. This paper
explores a strategy towards pruning the size of candidate parent sets, aimed at
high dimensionality problems. The results illustrate how different levels of
pruning affect the learning speed relative to the loss in accuracy in terms of
model fitting, and show that aggressive pruning may be required to produce
approximate solutions for high complexity problems.
- Abstract(参考訳): ベイズネットワーク(bn)構造を学ぶスコアベースのアルゴリズムは、近似学習の異なるレベルから正確な学習まで幅広い解を提供する。
正確な学習は一般的に適度または高い複雑性のネットワークに適用できないため、近似解が存在する。
一般に、近似解は速度の精度を犠牲にし、その目的は精度の損失を最小化し、速度の利得を最大化することである。
いくつかの近似アルゴリズムは数千の変数を扱うように最適化されているが、これらのアルゴリズムはそのような高次元構造を学べない可能性がある。
最も効率的なスコアベースアルゴリズムのいくつかは、構造学習問題を候補親集合の組合せ最適化として位置づけている。
本稿では,高次元問題を対象とした親集合のサイズ決定戦略について検討する。
以上の結果から,プルーニングのレベルの違いがモデルフィッティングの精度の低下に対して学習速度にどのように影響するかを示し,高い複雑性問題に対する近似解を生成するためには,アグレッシブプルーニングが必要であることを示した。
関連論文リスト
- A machine learning based algorithm selection method to solve the minimum
cost flow problem [0.8399688944263843]
複数の機械学習分類器を訓練し、与えられた解の集合の中で最速の予測を行う。
木をベースとしたモデルでは,最小コストのフロー問題の関連構造を適応し,活用することが示されている。
論文 参考訳(メタデータ) (2022-10-03T16:06:24Z) - Learning with Differentiable Algorithms [6.47243430672461]
この論文は、古典的なアルゴリズムとニューラルネットワークのような機械学習システムを組み合わせることを探求している。
この論文はアルゴリズムの監督という概念を定式化し、ニューラルネットワークがアルゴリズムから、あるいは、アルゴリズムと連動して学ぶことを可能にする。
さらに、この論文では、微分可能なソートネットワーク、微分可能なソートゲート、微分可能な論理ゲートネットワークなど、微分可能なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-01T17:30:00Z) - Training Neural Networks using SAT solvers [1.0152838128195465]
本稿では,SATソルバを用いてニューラルネットワークのトレーニングを行うグローバル最適化手法を提案する。
実験では,パリティ学習などのタスクにおいて,ADAMオプティマイザに対するアルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2022-06-10T01:31:12Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Online Model Selection for Reinforcement Learning with Function
Approximation [50.008542459050155]
我々は、$tildeO(L5/6 T2/3)$ regretで最適な複雑性に適応するメタアルゴリズムを提案する。
また、メタアルゴリズムは、インスタンス依存の後悔境界を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-11-19T10:00:54Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - Inexact Derivative-Free Optimization for Bilevel Learning [0.27074235008521236]
変分正則化技術は数理イメージングの分野で支配的である。
この問題を解決するための一般的な戦略は、これらのパラメータをデータから学習することだ。
上層問題の解法では、下層問題の正確な解にアクセスできると仮定することが一般的であり、実際は不可能である。
本稿では, 厳密な低レベル問題解を必要としない不正確な微分自由最適化アルゴリズムを用いて, これらの問題を解くことを提案する。
論文 参考訳(メタデータ) (2020-06-23T00:17:32Z) - Learning to Stop While Learning to Predict [85.7136203122784]
多くのアルゴリズムにインスパイアされたディープモデルは全ての入力に対して固定深度に制限される。
アルゴリズムと同様に、深いアーキテクチャの最適深さは、異なる入力インスタンスに対して異なるかもしれない。
本稿では, ステアブルアーキテクチャを用いて, この様々な深さ問題に対処する。
学習した深層モデルと停止ポリシーにより,多様なタスクセットのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-06-09T07:22:01Z) - Learning with Differentiable Perturbed Optimizers [54.351317101356614]
本稿では,操作を微分可能で局所的に一定ではない操作に変換する手法を提案する。
提案手法は摂動に依拠し,既存の解法とともに容易に利用することができる。
本稿では,この枠組みが,構造化予測において発達した損失の族とどのように結びつくかを示し,学習課題におけるそれらの使用に関する理論的保証を与える。
論文 参考訳(メタデータ) (2020-02-20T11:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。