論文の概要: Fundamental limits to learning closed-form mathematical models from data
- arxiv url: http://arxiv.org/abs/2204.02704v1
- Date: Wed, 6 Apr 2022 10:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 21:54:29.637681
- Title: Fundamental limits to learning closed-form mathematical models from data
- Title(参考訳): データから閉形式数学モデルを学ぶための基礎的限界
- Authors: Oscar Fajardo-Fontiveros, Ignasi Reichardt, Harry R. De Los Rios,
Jordi Duch, Marta Sales-Pardo, Roger Guimera
- Abstract要約: ノイズの多いデータセットが与えられたら、データだけで真の生成モデルを学ぶことはいつ可能だろうか?
この問題は,真のモデルが学習可能な低雑音位相から,観測ノイズが高すぎて真のモデルが学習できない位相への遷移を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given a finite and noisy dataset generated with a closed-form mathematical
model, when is it possible to learn the true generating model from the data
alone? This is the question we investigate here. We show that this
model-learning problem displays a transition from a low-noise phase in which
the true model can be learned, to a phase in which the observation noise is too
high for the true model to be learned by any method. Both in the low-noise
phase and in the high-noise phase, probabilistic model selection leads to
optimal generalization to unseen data. This is in contrast to standard machine
learning approaches, including artificial neural networks, which are limited,
in the low-noise phase, by their ability to interpolate. In the transition
region between the learnable and unlearnable phases, generalization is hard for
all approaches including probabilistic model selection.
- Abstract(参考訳): 閉形式数学モデルで生成された有限かつノイズの多いデータセットが与えられたとき、データのみから真の生成モデルを学ぶことはいつ可能か?
これは私たちがここで調査する質問です。
このモデル学習問題は、真のモデルが学習できる低雑音位相から、観測ノイズが高すぎて、任意の方法によって真のモデルが学習できない段階への遷移を示す。
低雑音相と高雑音相の両方において、確率的モデル選択は、目に見えないデータに最適な一般化をもたらす。
これは、低ノイズの段階で制限された人工知能ニューラルネットワークを含む、標準的な機械学習アプローチとは対照的である。
学習可能相と学習不能相の遷移領域では、確率的モデル選択を含む全てのアプローチにおいて一般化は困難である。
関連論文リスト
- Structure learning with Temporal Gaussian Mixture for model-based Reinforcement Learning [0.9217021281095907]
本稿では,知覚モデルと遷移モデルからなる時間的ガウス混合モデルを提案する。
知覚モデルは、変分ガウス混合確率を用いて連続観測から離散状態(ラテン)を抽出する。
遷移モデルはディリクレカテゴリーの共役性を利用して連続する時間ステップ間の時間遷移を学習する。
最後に、状態に対する信念からQ値を学ぶことができるQ-ラーニングの変種を用いて意思決定を行う。
論文 参考訳(メタデータ) (2024-11-18T12:16:03Z) - Heat Death of Generative Models in Closed-Loop Learning [63.83608300361159]
本研究では、独自の学習データセットに加えて、生成したコンテンツをフィードバックする生成モデルの学習ダイナミクスについて検討する。
各イテレーションで十分な量の外部データが導入されない限り、非自明な温度がモデルを退化させることを示す。
論文 参考訳(メタデータ) (2024-04-02T21:51:39Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Neural Likelihood Approximation for Integer Valued Time Series Data [0.0]
我々は、基礎となるモデルの無条件シミュレーションを用いて訓練できるニューラルな可能性近似を構築した。
本手法は,多くの生態学的および疫学的モデルを用いて推定を行うことにより実証する。
論文 参考訳(メタデータ) (2023-10-19T07:51:39Z) - Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling [69.60713300418467]
ジャンプの学習は、様々な種類のデータの生成モデリングのための一般的なレシピである。
ジャンプの学習が、デノゼの学習と相容れないパフォーマンスを期待される場合と、より良いパフォーマンスを期待される場合を実証する。
論文 参考訳(メタデータ) (2023-05-28T05:38:28Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Variational Mixture of Normalizing Flows [0.0]
生成逆数ネットワークオートサイトGAN、変分オートエンコーダオートサイトベイペーパー、およびそれらの変種などの深い生成モデルは、複雑なデータ分布をモデル化するタスクに広く採用されている。
正規化フローはこの制限を克服し、確率密度関数にそのような公式の変更を利用する。
本研究は,混合モデルのコンポーネントとして正規化フローを用い,そのようなモデルのエンドツーエンドトレーニング手順を考案することによって,この問題を克服する。
論文 参考訳(メタデータ) (2020-09-01T17:20:08Z) - BayesFlow: Learning complex stochastic models with invertible neural
networks [3.1498833540989413]
可逆ニューラルネットワークに基づく世界規模のベイズ推定手法を提案する。
BayesFlowは、観測されたデータを最大情報的な要約統計に埋め込むよう訓練された要約ネットワークを組み込んでいる。
本研究では, 人口動態, 疫学, 認知科学, 生態学の難易度モデルに対するベイズフローの有用性を実証する。
論文 参考訳(メタデータ) (2020-03-13T13:39:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。