論文の概要: Learning the Finer Things: Bayesian Structure Learning at the
Instantiation Level
- arxiv url: http://arxiv.org/abs/2303.04339v1
- Date: Wed, 8 Mar 2023 02:31:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 15:17:37.860037
- Title: Learning the Finer Things: Bayesian Structure Learning at the
Instantiation Level
- Title(参考訳): より細かいことを学ぶ - インスタンス化レベルでのベイズ構造学習
- Authors: Chase Yakaboski and Eugene Santos Jr
- Abstract要約: 成功した機械学習手法は記憶と一般化の間のトレードオフを必要とする。
本稿では,探索的領域で学習し,一般化し,説明できる新しい確率的グラフィカルモデル構造学習手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Successful machine learning methods require a trade-off between memorization
and generalization. Too much memorization and the model cannot generalize to
unobserved examples. Too much over-generalization and we risk under-fitting the
data. While we commonly measure their performance through cross validation and
accuracy metrics, how should these algorithms cope in domains that are
extremely under-determined where accuracy is always unsatisfactory? We present
a novel probabilistic graphical model structure learning approach that can
learn, generalize and explain in these elusive domains by operating at the
random variable instantiation level. Using Minimum Description Length (MDL)
analysis, we propose a new decomposition of the learning problem over all
training exemplars, fusing together minimal entropy inferences to construct a
final knowledge base. By leveraging Bayesian Knowledge Bases (BKBs), a
framework that operates at the instantiation level and inherently subsumes
Bayesian Networks (BNs), we develop both a theoretical MDL score and associated
structure learning algorithm that demonstrates significant improvements over
learned BNs on 40 benchmark datasets. Further, our algorithm incorporates
recent off-the-shelf DAG learning techniques enabling tractable results even on
large problems. We then demonstrate the utility of our approach in a
significantly under-determined domain by learning gene regulatory networks on
breast cancer gene mutational data available from The Cancer Genome Atlas
(TCGA).
- Abstract(参考訳): 成功した機械学習手法は記憶と一般化の間のトレードオフを必要とする。
記憶が多すぎるとモデルが観測できない例に一般化できない。
過剰な一般化が多すぎると、データに過度に適合するリスクがあります。
一般的に、クロスバリデーションと精度メトリクスを通じてパフォーマンスを計測するが、精度が常に満足できない領域において、これらのアルゴリズムはどのように対処すべきなのか?
本稿では,確率変数インスタンス化レベルで操作することで,これらの不可解な領域を学習し,一般化し,説明できる,新しい確率論的グラフィカルモデル構造学習手法を提案する。
MDL(Minimum Description Length)分析を用いて,全ての学習経験者に対する学習問題の新たな分解を提案し,最小エントロピー推論を融合して最終知識ベースを構築する。
ベイジアン・ナレッジ・ベース(BKB)をインスタンスレベルで動作し,本質的にベイジアン・ネットワーク(BN)を仮定するフレームワークとして活用することにより,40のベンチマーク・データセット上での学習BNに対する大幅な改善を示す理論的MDLスコアと関連する構造学習アルゴリズムを開発した。
さらに,本アルゴリズムでは,近年の既成のDAG学習技術を用いて,大規模な問題においても抽出可能な結果が得られる。
次に,癌ゲノムアトラス(tcga)から入手可能な乳癌遺伝子変異データに関する遺伝子制御ネットワークを学習することにより,この手法の有用性を示す。
関連論文リスト
- Not all tickets are equal and we know it: Guiding pruning with
domain-specific knowledge [26.950765295157897]
本稿では、利用可能なドメイン固有構造情報によってプルーニングをガイドするDASHを提案する。
動的遺伝子制御ネットワークモデル学習の文脈において、DASHと相互作用パートナーに関する既存の一般的な知識が組み合わさって、生物学的に整合したデータ固有の洞察を提供することを示す。
論文 参考訳(メタデータ) (2024-03-05T23:02:55Z) - On the Generalization Capability of Temporal Graph Learning Algorithms:
Theoretical Insights and a Simpler Method [59.52204415829695]
テンポラルグラフ学習(TGL)は、様々な現実世界のアプリケーションにまたがる一般的なテクニックとなっている。
本稿では,異なるTGLアルゴリズムの一般化能力について検討する。
一般化誤差が小さく、全体的な性能が向上し、モデルの複雑さが低下する単純化されたTGLネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-26T08:22:22Z) - Maximizing Model Generalization for Machine Condition Monitoring with
Self-Supervised Learning and Federated Learning [4.214064911004321]
Deep Learningは、手動で設計された統計的特徴なしで、障害を診断し、生の状態監視データからマシンの健康を評価する。
伝統的な教師付き学習は、目に見えない対象ドメインに一般化するコンパクトで差別的な表現を学ぶのに苦労することがある。
本研究は,対象領域にモデルをコピーするために,ソース領域における特徴一般化の最大化と重み移動によるTLの適用に焦点をあてる。
論文 参考訳(メタデータ) (2023-04-27T17:57:54Z) - Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - Network Gradient Descent Algorithm for Decentralized Federated Learning [0.2867517731896504]
本稿では,コミュニケーションベースネットワーク上で実行される新しい勾配勾配アルゴリズムである,完全に分散化されたフェデレーション学習アルゴリズムについて検討する。
NGD法では、統計(パラメータ推定など)のみを通信し、プライバシーのリスクを最小限に抑える必要がある。
学習速度とネットワーク構造の両方が,NGD推定器の統計的効率を決定する上で重要な役割を担っていることがわかった。
論文 参考訳(メタデータ) (2022-05-06T02:53:31Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Efficient and Scalable Structure Learning for Bayesian Networks:
Algorithms and Applications [33.8980356362084]
事業要件を総合的に満たす新しい構造学習アルゴリズム「LEAST」を提案します。
LEASTはデプロイされ、毎日数千の実行で20以上のアプリケーションに対応します。
大規模遺伝子発現データ解析や説明可能なレコメンデーションシステムなど,新しい領域におけるbn構造学習の適用可能性の最小化が期待できることを示す。
論文 参考訳(メタデータ) (2020-12-07T09:11:08Z) - Information Theoretic Meta Learning with Gaussian Processes [74.54485310507336]
情報理論の概念,すなわち相互情報と情報のボトルネックを用いてメタ学習を定式化する。
相互情報に対する変分近似を用いることで、メタ学習のための汎用的かつトラクタブルな枠組みを導出する。
論文 参考訳(メタデータ) (2020-09-07T16:47:30Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - Information-theoretic analysis for transfer learning [5.081241420920605]
本稿では,一般化誤差と転帰学習アルゴリズムの過大なリスクに関する情報理論解析を行う。
我々の結果は、おそらく予想通り、Kulback-Leiblerの発散$D(mu||mu')$が一般化誤差を特徴づける重要な役割を果たすことを示唆している。
論文 参考訳(メタデータ) (2020-05-18T13:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。