論文の概要: Fundamental limits to learning closed-form mathematical models from data
- arxiv url: http://arxiv.org/abs/2204.02704v1
- Date: Wed, 6 Apr 2022 10:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 21:54:29.637681
- Title: Fundamental limits to learning closed-form mathematical models from data
- Title(参考訳): データから閉形式数学モデルを学ぶための基礎的限界
- Authors: Oscar Fajardo-Fontiveros, Ignasi Reichardt, Harry R. De Los Rios,
Jordi Duch, Marta Sales-Pardo, Roger Guimera
- Abstract要約: ノイズの多いデータセットが与えられたら、データだけで真の生成モデルを学ぶことはいつ可能だろうか?
この問題は,真のモデルが学習可能な低雑音位相から,観測ノイズが高すぎて真のモデルが学習できない位相への遷移を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given a finite and noisy dataset generated with a closed-form mathematical
model, when is it possible to learn the true generating model from the data
alone? This is the question we investigate here. We show that this
model-learning problem displays a transition from a low-noise phase in which
the true model can be learned, to a phase in which the observation noise is too
high for the true model to be learned by any method. Both in the low-noise
phase and in the high-noise phase, probabilistic model selection leads to
optimal generalization to unseen data. This is in contrast to standard machine
learning approaches, including artificial neural networks, which are limited,
in the low-noise phase, by their ability to interpolate. In the transition
region between the learnable and unlearnable phases, generalization is hard for
all approaches including probabilistic model selection.
- Abstract(参考訳): 閉形式数学モデルで生成された有限かつノイズの多いデータセットが与えられたとき、データのみから真の生成モデルを学ぶことはいつ可能か?
これは私たちがここで調査する質問です。
このモデル学習問題は、真のモデルが学習できる低雑音位相から、観測ノイズが高すぎて、任意の方法によって真のモデルが学習できない段階への遷移を示す。
低雑音相と高雑音相の両方において、確率的モデル選択は、目に見えないデータに最適な一般化をもたらす。
これは、低ノイズの段階で制限された人工知能ニューラルネットワークを含む、標準的な機械学習アプローチとは対照的である。
学習可能相と学習不能相の遷移領域では、確率的モデル選択を含む全てのアプローチにおいて一般化は困難である。
関連論文リスト
- Generative Learning of Continuous Data by Tensor Networks [47.77281294161002]
本稿では,連続データのためのテンソルネットワーク生成モデルについて紹介する。
我々は、このモデルの性能を、いくつかの合成および実世界のデータセットでベンチマークする。
本手法は, 急速に成長する生成学習分野において, 量子インスピレーション法の有効性を示す重要な理論的, 実証的な証拠を与える。
論文 参考訳(メタデータ) (2023-10-31T14:37:37Z) - Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling [69.60713300418467]
ジャンプの学習は、様々な種類のデータの生成モデリングのための一般的なレシピである。
ジャンプの学習が、デノゼの学習と相容れないパフォーマンスを期待される場合と、より良いパフォーマンスを期待される場合を実証する。
論文 参考訳(メタデータ) (2023-05-28T05:38:28Z) - On Inductive Biases for Machine Learning in Data Constrained Settings [0.0]
この論文は、データ制約された設定で表現力のあるモデルを学ぶという問題に対する異なる答えを探求する。
ニューラルネットワークを学ぶために、大きなデータセットに頼るのではなく、データ構造を反映した既知の関数によって、いくつかのモジュールを置き換えるつもりです。
我々のアプローチは「帰納的バイアス」のフードの下に置かれており、これは探索するモデルの空間を制限する手元にあるデータの仮説として定義することができる。
論文 参考訳(メタデータ) (2023-02-21T14:22:01Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Stochastic Parameterizations: Better Modelling of Temporal Correlations
using Probabilistic Machine Learning [1.5293427903448025]
確率的フレームワーク内で物理インフォームされたリカレントニューラルネットワークを用いることで,96大気シミュレーションのモデルが競合することを示す。
これは、標準の1次自己回帰スキームと比較して時間的相関をモデル化する能力が優れているためである。
文献から多くの指標を評価するとともに、将来的な気候モデルにおいて、確率論的尺度が統一的な選択である可能性についても論じる。
論文 参考訳(メタデータ) (2022-03-28T14:51:42Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Variational Mixture of Normalizing Flows [0.0]
生成逆数ネットワークオートサイトGAN、変分オートエンコーダオートサイトベイペーパー、およびそれらの変種などの深い生成モデルは、複雑なデータ分布をモデル化するタスクに広く採用されている。
正規化フローはこの制限を克服し、確率密度関数にそのような公式の変更を利用する。
本研究は,混合モデルのコンポーネントとして正規化フローを用い,そのようなモデルのエンドツーエンドトレーニング手順を考案することによって,この問題を克服する。
論文 参考訳(メタデータ) (2020-09-01T17:20:08Z) - BayesFlow: Learning complex stochastic models with invertible neural
networks [3.1498833540989413]
可逆ニューラルネットワークに基づく世界規模のベイズ推定手法を提案する。
BayesFlowは、観測されたデータを最大情報的な要約統計に埋め込むよう訓練された要約ネットワークを組み込んでいる。
本研究では, 人口動態, 疫学, 認知科学, 生態学の難易度モデルに対するベイズフローの有用性を実証する。
論文 参考訳(メタデータ) (2020-03-13T13:39:31Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。