論文の概要: Generalization Error Bounds on Deep Learning with Markov Datasets
- arxiv url: http://arxiv.org/abs/2201.11059v1
- Date: Thu, 23 Dec 2021 11:14:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-30 14:23:49.994627
- Title: Generalization Error Bounds on Deep Learning with Markov Datasets
- Title(参考訳): マルコフデータセットによるディープラーニングの一般化エラー境界
- Authors: Lan V. Truong
- Abstract要約: マルコフデータセットを用いたディープニューラルネットワークの一般化誤差の上限を導出する。
マルコフ連鎖の高次元確率における新しい対称性の不等式は、我々の拡張の鍵となる要素である。
- 参考スコア(独自算出の注目度): 16.3460693863947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we derive upper bounds on generalization errors for deep
neural networks with Markov datasets. These bounds are developed based on
Koltchinskii and Panchenko's approach for bounding the generalization error of
combined classifiers with i.i.d. datasets. The development of new
symmetrization inequalities in high-dimensional probability for Markov chains
is a key element in our extension, where the pseudo-spectral gap of the
infinitesimal generator of the Markov chain plays as a key parameter in these
inequalities. We also propose a simple method to convert these bounds and other
similar bounds on traditional deep learning and machine learning to Bayesian
counterparts for both i.i.d. and Markov datasets.
- Abstract(参考訳): 本稿では,マルコフデータセットを用いたディープニューラルネットワークにおける一般化誤差の上限を導出する。
これらの境界はKoltchinskiiとPanchenkoのアプローチに基づいて、組合せ分類器の一般化誤差をi.d.データセットにバウンドする。
マルコフ連鎖の高次元確率における新しい対称性の不等式の発展は、マルコフ連鎖の無限小生成子の擬スペクトルギャップがこれらの不等式における鍵パラメータとして作用するこの拡張の重要な要素である。
また,これらの境界や,従来のディープラーニングや機械学習の類似した境界を,i.d.d.とマルコフのデータセットのベイズ対応に変換する簡単な手法を提案する。
関連論文リスト
- Doubly Stochastic Adaptive Neighbors Clustering via the Marcus Mapping [56.57574396804837]
クラスタリングは機械学習とデータサイエンスにおける基本的なタスクであり、類似性グラフベースのクラスタリングはこの領域において重要なアプローチである。
マーカスマッピングと最適輸送の関係について検討する。
マーカス写像が特定の種類の最適輸送問題を解くことを証明し、マーカス写像によるこの問題の解法が最適輸送法を直接適用するよりも効率的であることを証明した。
論文 参考訳(メタデータ) (2024-08-06T03:34:43Z) - Disentangled Representation Learning with the Gromov-Monge Gap [65.73194652234848]
乱れのないデータから歪んだ表現を学習することは、機械学習における根本的な課題である。
本稿では,2次最適輸送に基づく非交叉表現学習手法を提案する。
提案手法の有効性を4つの標準ベンチマークで示す。
論文 参考訳(メタデータ) (2024-07-10T16:51:32Z) - A Probabilistic Semi-Supervised Approach with Triplet Markov Chains [1.000779758350696]
トリプルトマルコフ連鎖はシーケンシャルデータの一般的な生成モデルである。
パラメータ化マルコフ連鎖モデルを訓練するための変分ベイズ推定に基づく一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-07T13:34:20Z) - Semi-Supervised Laplace Learning on Stiefel Manifolds [48.3427853588646]
グラフベースで教師付きサンプルを低ラベルレートで作成するためのフレームワークSequential Subspaceを開発した。
我々の手法は極めて低いレートで、高いラベルレートで達成できる。
論文 参考訳(メタデータ) (2023-07-31T20:19:36Z) - Covariate shift in nonparametric regression with Markovian design [0.0]
ナダラヤ・ワトソン核推定器の滑らかさリスクに対する収束速度は、ソースとターゲットマルコフ連鎖に関連する不変分布の類似性によって決定されることを示す。
我々は、Kpotufe と Martinet からの分布指数の概念を、一様エルゴードなマルコフ鎖の核移動指数に拡張する。
論文 参考訳(メタデータ) (2023-07-17T14:24:27Z) - Generalized Precision Matrix for Scalable Estimation of Nonparametric
Markov Networks [11.77890309304632]
マルコフネットワークは、確率変数の集合の中で条件独立構造またはマルコフ特性を特徴づける。
本研究では,すべてのデータ型に対する一般分布における条件独立構造を特徴付ける。
また,変数間の一般関数関係を許容し,マルコフネットワーク構造学習アルゴリズムを考案する。
論文 参考訳(メタデータ) (2023-05-19T01:53:10Z) - Discriminative Entropy Clustering and its Relation to K-means and SVM [9.394359851234201]
モデルの入力と出力の相互情報の最大化は、ソフトマックス予測の「決定性」と「公正性」に関係している。
本稿では,一般的なソフトマックスモデルに対するエントロピークラスタリングの自己ラベル化に関する新しい定式化を提案する。
我々のアルゴリズムは、ディープクラスタリングのためのいくつかの標準ベンチマークにおける技術状況を改善する。
論文 参考訳(メタデータ) (2023-01-26T20:35:30Z) - Detection and Evaluation of Clusters within Sequential Data [58.720142291102135]
Block Markov Chainsのクラスタリングアルゴリズムは理論的最適性を保証する。
特に、私たちのシーケンシャルデータは、ヒトのDNA、テキスト、動物運動データ、金融市場から派生しています。
ブロックマルコフ連鎖モデルの仮定は、実際に探索データ解析において有意義な洞察を得られることが判明した。
論文 参考訳(メタデータ) (2022-10-04T15:22:39Z) - Semi-Supervised Subspace Clustering via Tensor Low-Rank Representation [64.49871502193477]
本稿では,初期監視情報を同時に拡張し,識別親和性行列を構築することのできる,新しい半教師付きサブスペースクラスタリング手法を提案する。
6つの一般的なベンチマークデータセットの総合的な実験結果から,本手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-21T01:47:17Z) - Semi-Supervised Clustering via Markov Chain Aggregation [9.475039534437332]
半教師付きクラスタリングのための制約付きマルコフクラスタリング(CoMaC)を導入する。
以上の結果から,CoMaCは最先端技術と競合していることが明らかとなった。
論文 参考訳(メタデータ) (2021-12-17T09:07:43Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。