論文の概要: Highly Efficient Structural Learning of Sparse Staged Trees
- arxiv url: http://arxiv.org/abs/2206.06970v1
- Date: Tue, 14 Jun 2022 16:46:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 14:29:07.761235
- Title: Highly Efficient Structural Learning of Sparse Staged Trees
- Title(参考訳): スパースステージ樹の高効率構造学習
- Authors: Manuele Leonelli, Gherardo Varando
- Abstract要約: そこで我々は,少数の依存性を課すことができるモデルの空間を探索する,ステージ木のための最初のスケーラブルな構造学習アルゴリズムを提案する。
実世界のアプリケーションと同様にシミュレーション研究は、我々のルーチンと、そのようなデータ学習されたステージツリーの実践的利用を例示している。
- 参考スコア(独自算出の注目度): 2.3572498744567127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several structural learning algorithms for staged tree models, an asymmetric
extension of Bayesian networks, have been defined. However, they do not scale
efficiently as the number of variables considered increases. Here we introduce
the first scalable structural learning algorithm for staged trees, which
searches over a space of models where only a small number of dependencies can
be imposed. A simulation study as well as a real-world application illustrate
our routines and the practical use of such data-learned staged trees.
- Abstract(参考訳): ベイズネットワークの非対称拡張であるステージ木モデルのいくつかの構造学習アルゴリズムが定義されている。
しかし、考慮される変数の数が増加するにつれて、効率よくスケールしない。
ここでは,少数の依存性を課すことができるモデルの空間を探索する,ステージ木のための最初のスケーラブルな構造学習アルゴリズムを紹介する。
実世界のアプリケーションと同様にシミュレーション研究は、我々のルーチンと、そのようなデータ学習されたステージツリーの実践的利用を例示している。
関連論文リスト
- A generalized decision tree ensemble based on the NeuralNetworks
architecture: Distributed Gradient Boosting Forest (DGBF) [0.0]
本稿では,木間の分散表現学習を自然に行うグラフ構造木アンサンブルアルゴリズムを提案する。
我々は、この新しいアプローチを分散グラディエントブースティングフォレスト(DGBF)と呼び、RandomForestとGradientBoostingの両方がDGBFの特定のグラフアーキテクチャとして表現できることを実証する。
最後に、分散学習は、9つのデータセットのうち7つでRandomForestとGradientBoostingの両方に優れています。
論文 参考訳(メタデータ) (2024-02-04T09:22:52Z) - Characterizing Intrinsic Compositionality in Transformers with Tree
Projections [72.45375959893218]
トランスのようなニューラルモデルは、入力の異なる部分間で情報を任意にルーティングすることができる。
3つの異なるタスクに対するトランスフォーマーは、トレーニングの過程でより木のようなものになることを示す。
これらの木はモデル挙動を予測し、より木のようなモデルは構成的一般化のテストにおいてより良く一般化する。
論文 参考訳(メタデータ) (2022-11-02T17:10:07Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Flexible Modeling and Multitask Learning using Differentiable Tree
Ensembles [6.037383467521294]
本稿では、任意の損失関数、欠落応答、マルチタスク学習をサポートするために、ツリーアンサンブルを学習するための柔軟なフレームワークを提案する。
我々のフレームワークは、一階述語法で訓練できる、微分可能なツリーアンサンブルの上に構築されている。
我々のフレームワークは、一般的なツールキットよりも100倍コンパクトで、表現力に富んだツリーアンサンブルを23%も得ることを示す。
論文 参考訳(メタデータ) (2022-05-19T17:30:49Z) - Structural Learning of Simple Staged Trees [2.3572498744567127]
そこで,本研究では,単純な樹木の分類のための構造学習アルゴリズムについて紹介する。
データ学習された単純な木は、しばしばモデル適合性においてベイズネットワークを上回っていることを示す。
論文 参考訳(メタデータ) (2022-03-08T20:50:39Z) - SGA: A Robust Algorithm for Partial Recovery of Tree-Structured
Graphical Models with Noisy Samples [75.32013242448151]
ノードからの観測が独立しているが非識別的に分散ノイズによって破損した場合、Ising Treeモデルの学習を検討する。
Katiyarら。
(2020) は, 正確な木構造は復元できないが, 部分木構造を復元できることを示した。
統計的に堅牢な部分木回復アルゴリズムであるSymmetrized Geometric Averaging(SGA)を提案する。
論文 参考訳(メタデータ) (2021-01-22T01:57:35Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - The R Package stagedtrees for Structural Learning of Stratified Staged
Trees [1.9199289015460215]
stagedtreesは、データからステージツリーとチェーンイベントグラフの構造を学習するアルゴリズムを含むRパッケージである。
ステージツリーの機能は、主にパッケージに含まれるかRにバンドルされた2つのデータセットを使用して説明される。
論文 参考訳(メタデータ) (2020-04-14T13:02:59Z) - Torch-Struct: Deep Structured Prediction Library [138.5262350501951]
本稿では,構造化予測ライブラリTorch-Structを紹介する。
Torch-Structには,シンプルで柔軟な分散ベースのAPIを通じてアクセスされる,確率的構造の広範なコレクションが含まれている。
論文 参考訳(メタデータ) (2020-02-03T16:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。