論文の概要: Distribution-free Deviation Bounds of Learning via Model Selection with
Cross-validation Risk Estimation
- arxiv url: http://arxiv.org/abs/2303.08777v1
- Date: Wed, 15 Mar 2023 17:18:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 12:54:07.247694
- Title: Distribution-free Deviation Bounds of Learning via Model Selection with
Cross-validation Risk Estimation
- Title(参考訳): クロスバリデーションリスク推定を用いたモデル選択による学習の分布自由逸脱境界
- Authors: Diego Marcondes and Cl\'audia Peixoto
- Abstract要約: リスク推定とモデル選択のためのクロスバリデーション技術は、統計学や機械学習で広く利用されている。
本稿では,古典的統計的学習理論における一般的な体系的学習フレームワークとして,クロスバリデーションリスク推定を用いたモデル選択による学習を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross-validation techniques for risk estimation and model selection are
widely used in statistics and machine learning. However, the understanding of
the theoretical properties of learning via model selection with
cross-validation risk estimation is quite low in face of its widespread use. In
this context, this paper presents learning via model selection with
cross-validation risk estimation as a general systematic learning framework
within classical statistical learning theory and establishes distribution-free
deviation bounds in terms of VC dimension, giving detailed proofs of the
results and considering both bounded and unbounded loss functions. We also
deduce conditions under which the deviation bounds of learning via model
selection are tighter than that of learning via empirical risk minimization in
the whole hypotheses space, supporting the better performance of model
selection frameworks observed empirically in some instances.
- Abstract(参考訳): リスク推定とモデル選択のためのクロスバリデーション技術は、統計学や機械学習で広く利用されている。
しかし, クロスバリデーションリスク推定を用いたモデル選択による学習の理論的特性の理解は, 広く利用されている中では極めて低い。
本稿では,古典的統計学習理論における一般的な系統的学習枠組みとして,クロス評価リスク推定を用いたモデル選択による学習を行い,vc次元の観点から分布自由偏差境界を確立し,結果の詳細な証明を行い,有界損失関数と非有界損失関数の両方を考察する。
また,モデル選択による学習の逸脱限界が,仮説全体の経験的リスク最小化による学習よりも厳密な条件を推定し,いくつかの事例で経験的に観察されるモデル選択フレームワークの性能向上を支援する。
関連論文リスト
- Distribution Learning and Its Application in Deep Learning [5.281849820329249]
本稿では,確率分布学習(PD Learning)と呼ばれる理論学習フレームワークを紹介する。
PD学習は確率分布の学習に重点を置いており、確率の単純さの中で確率変数としてモデル化される。
論文 参考訳(メタデータ) (2024-06-09T06:49:22Z) - Improving Heterogeneous Model Reuse by Density Estimation [105.97036205113258]
本稿では,異なる参加者の個人データを用いてモデルを学習することを目的とした多人数学習について検討する。
モデルの再利用は、各パーティーのためにローカルモデルがトレーニングされていると仮定して、マルチパーティの学習にとって有望なソリューションである。
論文 参考訳(メタデータ) (2023-05-23T09:46:54Z) - Transfer learning with affine model transformation [18.13383101189326]
本稿では,アフィンモデル転送と呼ばれる,伝達学習の一般的なクラスについて述べる。
アフィンモデル転送は、ニューラル特徴抽出器に基づく最も一般的な手順を含む、様々な既存手法を幅広く包含していることが示されている。
論文 参考訳(メタデータ) (2022-10-18T10:50:24Z) - Planning with Diffusion for Flexible Behavior Synthesis [125.24438991142573]
我々は、できるだけ多くの軌道最適化パイプラインをモデリング問題に折り畳むことがどう見えるか検討する。
我々の技術的アプローチの核心は、軌道を反復的にデノベーションすることで計画する拡散確率モデルにある。
論文 参考訳(メタデータ) (2022-05-20T07:02:03Z) - Prototypical Model with Novel Information-theoretic Loss Function for
Generalized Zero Shot Learning [3.870962269034544]
一般ゼロショット学習(GZSL)は、ディープラーニングの技術的課題である。
本稿では,知識伝達と意味的関係の定量化について,情報理論の観点から考察する。
決定論的GZSLモデルのための情報理論損失関数を3つ提案する。
論文 参考訳(メタデータ) (2021-12-06T16:01:46Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - On Statistical Efficiency in Learning [37.08000833961712]
モデルフィッティングとモデル複雑性のバランスをとるためのモデル選択の課題に対処する。
モデルの複雑さを順次拡大し、選択安定性を高め、コストを削減するオンラインアルゴリズムを提案します。
実験の結果, 提案手法は予測能力が高く, 計算コストが比較的低いことがわかった。
論文 参考訳(メタデータ) (2020-12-24T16:08:29Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Estimating Generalization under Distribution Shifts via Domain-Invariant
Representations [75.74928159249225]
未知の真のターゲットラベルのプロキシとして、ドメイン不変の予測器のセットを使用します。
結果として生じるリスク見積の誤差は、プロキシモデルのターゲットリスクに依存する。
論文 参考訳(メタデータ) (2020-07-06T17:21:24Z) - PAC Bounds for Imitation and Model-based Batch Learning of Contextual
Markov Decision Processes [31.83144400718369]
本稿では,コンテキスト記述子を用いたマルチタスク強化学習のバッチ化の問題点について考察する。
直接政策学習(DPL)、専門家の軌道から学習する模倣学習に基づくアプローチ、モデルに基づく学習という2つの一般的な学習アルゴリズムについて研究する。
論文 参考訳(メタデータ) (2020-06-11T11:57:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。