論文の概要: Non-Parametric Learning of Lifted Restricted Boltzmann Machines
- arxiv url: http://arxiv.org/abs/2001.10070v1
- Date: Thu, 9 Jan 2020 05:23:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 04:22:00.010187
- Title: Non-Parametric Learning of Lifted Restricted Boltzmann Machines
- Title(参考訳): 昇降制限ボルツマン機械の非パラメトリック学習
- Authors: Navdeep Kaur and Gautam Kunapuli and Sriraam Natarajan
- Abstract要約: 我々は、リレーショナルデータが存在する場合に制限されたボルツマンマシンを識別的に学習する問題を考察する。
規則学習者(構造学習)と重み学習者(パラメータ学習)を逐次採用する従来の手法とは異なり,両手法を同時に行う勾配型アプローチを開発する。
- 参考スコア(独自算出の注目度): 12.38691838326166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of discriminatively learning restricted Boltzmann
machines in the presence of relational data. Unlike previous approaches that
employ a rule learner (for structure learning) and a weight learner (for
parameter learning) sequentially, we develop a gradient-boosted approach that
performs both simultaneously. Our approach learns a set of weak relational
regression trees, whose paths from root to leaf are conjunctive clauses and
represent the structure, and whose leaf values represent the parameters. When
the learned relational regression trees are transformed into a lifted RBM, its
hidden nodes are precisely the conjunctive clauses derived from the relational
regression trees. This leads to a more interpretable and explainable model. Our
empirical evaluations clearly demonstrate this aspect, while displaying no loss
in effectiveness of the learned models.
- Abstract(参考訳): 我々は、リレーショナルデータが存在する場合に制限されたボルツマンマシンを識別的に学習する問題を考察する。
規則学習者(構造学習)と重み学習者(パラメータ学習)を逐次採用する従来の手法とは異なり,両手法を同時に行う勾配型アプローチを開発する。
本手法は,根から葉への経路が連結節であり,構造を表現し,その葉値がパラメータを表す弱関係回帰木の集合を学習する。
学習したリレーショナル回帰木を昇降RBMに変換すると、その隠れノードは正確にはリレーショナル回帰木に由来する共役節である。
これはより解釈可能で説明可能なモデルにつながる。
我々の経験的評価は、学習モデルの有効性を損なうことなく、この側面を明確に示している。
関連論文リスト
- Decision Trees for Interpretable Clusters in Mixture Models and Deep Representations [5.65604054654671]
混合モデルに対する説明可能性-雑音比の概念を導入する。
本研究では,混合モデルを入力として,データに依存しない時間に適切な木を構築するアルゴリズムを提案する。
結果の決定ツリーの誤り率について,上と下の境界を証明した。
論文 参考訳(メタデータ) (2024-11-03T14:00:20Z) - Extending Explainable Ensemble Trees (E2Tree) to regression contexts [1.5186937600119894]
E2Treeは、ランダムな森林を説明するための新しい方法論である。
これは、応答に対する予測変数の影響を考慮に入れている。
また、計算と異種性尺度の使用を通じて、予測変数間の関連性も説明できる。
論文 参考訳(メタデータ) (2024-09-10T11:42:55Z) - Regression Trees Know Calculus [1.8130068086063336]
一般的な木学習ライブラリが公開する量を用いて効率的に計算できる勾配の簡単な推定値を求める。
これにより、ニューラルネットやガウシアンプロセスといった、微分可能なアルゴリズムのコンテキストで開発されたツールを、ツリーベースのモデルにデプロイすることができる。
論文 参考訳(メタデータ) (2024-05-22T17:14:03Z) - Why do Random Forests Work? Understanding Tree Ensembles as
Self-Regularizing Adaptive Smoothers [68.76846801719095]
統計学で広く普及している偏りと分散還元に対する現在の高次二分法は、木のアンサンブルを理解するには不十分である、と我々は主張する。
森林は、通常暗黙的に絡み合っている3つの異なるメカニズムによって、樹木を改良できることを示す。
論文 参考訳(メタデータ) (2024-02-02T15:36:43Z) - Nonparametric Partial Disentanglement via Mechanism Sparsity: Sparse
Actions, Interventions and Sparse Temporal Dependencies [58.179981892921056]
この研究は、メカニズムのスパーシティ正則化(英語版)と呼ばれる、アンタングルメントの新たな原理を導入する。
本稿では,潜在要因を同時に学習することで,絡み合いを誘発する表現学習手法を提案する。
学習した因果グラフをスパースに規則化することにより、潜伏因子を復元できることを示す。
論文 参考訳(メタデータ) (2024-01-10T02:38:21Z) - A U-turn on Double Descent: Rethinking Parameter Counting in Statistical
Learning [68.76846801719095]
二重降下がいつどこで起こるのかを正確に示し、その位置が本質的に閾値 p=n に結び付けられていないことを示す。
これは二重降下と統計的直観の間の緊張を解消する。
論文 参考訳(メタデータ) (2023-10-29T12:05:39Z) - Unsupervised Learning of Invariance Transformations [105.54048699217668]
近似グラフ自己同型を見つけるためのアルゴリズムフレームワークを開発する。
重み付きグラフにおける近似自己同型を見つけるために、このフレームワークをどのように利用できるかについて議論する。
論文 参考訳(メタデータ) (2023-07-24T17:03:28Z) - A cautionary tale on fitting decision trees to data from additive
models: generalization lower bounds [9.546094657606178]
本研究では,異なる回帰モデルに対する決定木の一般化性能について検討する。
これにより、アルゴリズムが新しいデータに一般化するために(あるいは作らない)仮定する帰納的バイアスが引き起こされる。
スパース加法モデルに適合する大規模な決定木アルゴリズムに対して、シャープな2乗誤差一般化を低い境界で証明する。
論文 参考訳(メタデータ) (2021-10-18T21:22:40Z) - Learning compositional structures for semantic graph parsing [81.41592892863979]
本稿では、AM依存性解析をニューラル潜在変数モデルで直接トレーニングする方法を示す。
本モデルでは,いくつかの言語現象を独自に把握し,教師あり学習に匹敵する精度を達成している。
論文 参考訳(メタデータ) (2021-06-08T14:20:07Z) - Trees-Based Models for Correlated Data [8.629912408966147]
相関構造を無視する標準木に基づく回帰モデルを実装する際に生じる問題を示す。
新しいアプローチでは,相関構造を分割基準で明示的に考慮する。
相関を考慮しない木モデルに対する新たなアプローチの優位性は,シミュレーション実験と実データ解析によって裏付けられている。
論文 参考訳(メタデータ) (2021-02-16T12:30:48Z) - Remembering for the Right Reasons: Explanations Reduce Catastrophic
Forgetting [100.75479161884935]
我々は、RRR(Remembering for the Right Reasons)と呼ばれる新しいトレーニングパラダイムを提案する。
RRRは、各例の視覚モデル説明をバッファに格納し、モデルが予測に「正しい理由」を持つことを保証する。
メモリや正規化ベースのアプローチでRRRを容易に追加できることを示し、その結果、忘れを少なくする。
論文 参考訳(メタデータ) (2020-10-04T10:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。