論文の概要: Probability Distribution Learning: A theoretical framework for Deep Learning
- arxiv url: http://arxiv.org/abs/2406.05666v6
- Date: Mon, 30 Sep 2024 12:20:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:00:52.927197
- Title: Probability Distribution Learning: A theoretical framework for Deep Learning
- Title(参考訳): 確率分布学習 : 深層学習のための理論的枠組み
- Authors: Binchuan Qi,
- Abstract要約: 本稿では,機械学習と統計的タスクを包括的に扱うことを目的とした,新しい理論学習フレームワークである学習分布(PD Learning)を紹介する。
PDラーニングは、分類、回帰、パラメータ推定を含む、機械学習と統計的なタスクに対処する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper introduces Probability Distribution Learning (PD learning), a novel theoretical learning framework designed to address a comprehensive range of machine learning and statistical tasks, including classification, regression, and parameter estimation. Departing from the traditional statistical learning framework, PD learning focuses on learning the underlying probability distribution of a dataset, which is modeled as a random variable within the probability simplex. In this framework, the learning error is decomposed into uncertainty and the model's fitting error to the optimal estimate. Uncertainty, which is non-optimizable and independent of both the model and optimization algorithm, depends solely on prior knowledge and sampling data, constituting the optimal bound of the learning error. Minimizing the fitting error represents a typical non-convex optimization problem. To address this, we initially demonstrate that under the conditions of unique optimum and sampling stability, the loss function exhibits a unified mathematical form, which we refer to as the standard loss function. Moreover, we prove that by employing the standard loss function, the optima of fitting error minimization can be approached by reducing the gradient norm and structural error. Subsequently, we demonstrate that with random parameter initialization, increasing network depth and the parameter count can reduce structural error. Consequently, from the perspective of structural error, techniques such as over-parameterization, non-convex optimization, and the flat minima in deep learning are beneficial in reducing structural error, thereby ensuring that gradient-based iterative algorithms can attain an approximate global optimum for fitting error minimization. Ultimately, the experimental results on various models have validated the effectiveness of the framework proposed in this paper.
- Abstract(参考訳): 本稿では,確率分布学習(PD Learning, Probability Distribution Learning)について紹介する。
従来の統計学習フレームワークとは別に、PD学習では、確率単純度内のランダム変数としてモデル化されたデータセットの基盤となる確率分布の学習に重点を置いている。
この枠組みでは、学習誤差は不確実性に分解され、モデルが最適推定値に適合する。
不確実性は、モデルと最適化アルゴリズムの両方とは独立であり、学習誤差の最適境界を構成する事前知識とサンプリングデータにのみ依存する。
嵌合誤差の最小化は典型的な非凸最適化問題である。
この問題に対処するために、まず、一意の最適化とサンプリング安定性の条件下では、損失関数は統一的な数学的形式を示し、これは標準損失関数と呼ばれる。
さらに、標準損失関数を用いることで、勾配ノルムと構造誤差を小さくすることで、適合誤差最小化の最適化が可能であることを証明した。
その後、ランダムパラメータの初期化、ネットワーク深度の増加、パラメータカウントが構造誤差を低減できることを示した。
したがって, 構造誤差の観点からは, オーバーパラメータ化や非凸最適化, ディープラーニングにおけるフラット最小化といった手法は, 構造誤差の低減に有効である。
最終的に、様々なモデルに関する実験結果により、本論文で提案したフレームワークの有効性が検証された。
関連論文リスト
- Generalized Gaussian Temporal Difference Error for Uncertainty-aware Reinforcement Learning [0.19418036471925312]
深部強化学習における一般化されたガウス誤差モデリングのための新しい枠組みを提案する。
我々のフレームワークは、高次モーメント、特にカルトーシスを付加することにより、エラー分散モデリングの柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-08-05T08:12:25Z) - Learning Latent Graph Structures and their Uncertainty [63.95971478893842]
グラフニューラルネットワーク(GNN)は、モデル精度を高めるために帰納バイアスとしてリレーショナル情報を使用する。
課題関連関係が不明なため,下流予測タスクを解きながら学習するためのグラフ構造学習手法が提案されている。
論文 参考訳(メタデータ) (2024-05-30T10:49:22Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Distribution-free risk assessment of regression-based machine learning
algorithms [6.507711025292814]
我々は回帰アルゴリズムとモデル予測の周囲に定義された区間内に存在する真のラベルの確率を計算するリスク評価タスクに焦点をあてる。
そこで,本研究では,正のラベルを所定の確率で含むことが保証される予測区間を提供する共形予測手法を用いてリスク評価問題を解決する。
論文 参考訳(メタデータ) (2023-10-05T13:57:24Z) - DF2: Distribution-Free Decision-Focused Learning [53.2476224456902]
決定中心学習(DFL)は近年,予測最適化問題に対する強力なアプローチとして出現している。
既存のエンドツーエンドDFL法は、モデル誤差、サンプル平均近似誤差、予測対象の分布に基づくパラメータ化の3つの重大なボトルネックによって妨げられている。
DF2は,これら3つのボトルネックに明示的に対処するために設計された,初となるテキストフリーな意思決定型学習手法である。
論文 参考訳(メタデータ) (2023-08-11T00:44:46Z) - Taylor Learning [0.0]
経験的リスク最小化は、教師付き機械学習におけるほとんどの最適化の背後にある。
本稿では,勾配降下や経験的リスク最小化を用いない実解析関数モデルを構築するための学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:10:58Z) - Supervised learning with probabilistic morphisms and kernel mean
embeddings [0.0]
本稿では,教師あり学習における2つのアプローチを統一した教師あり学習モデルを提案する。
統計的学習理論において無視されてきた2つの測定可能性問題に対処する。
不正な問題を解くために,Vapnik-Stefanuykの正規化手法の変種を提案する。
論文 参考訳(メタデータ) (2023-05-10T17:54:21Z) - Error-based Knockoffs Inference for Controlled Feature Selection [49.99321384855201]
本手法では, ノックオフ特徴量, エラーベース特徴重要度統計量, ステップダウン手順を一体化して, エラーベースのノックオフ推定手法を提案する。
提案手法では回帰モデルを指定する必要はなく,理論的保証で特徴選択を処理できる。
論文 参考訳(メタデータ) (2022-03-09T01:55:59Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z) - Bootstrapped model learning and error correction for planning with
uncertainty in model-based RL [1.370633147306388]
自然の目的は、環境のダイナミクスを正確に反映したモデルを学ぶことである。
本稿では,不確実性を考慮した強化学習エージェントによるモデルミス特定の問題について検討する。
本稿では,将来の状態と報酬の分布を学習するブートストラップ型マルチヘッドニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-15T15:41:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。