論文の概要: Credal Learning Theory
- arxiv url: http://arxiv.org/abs/2402.00957v3
- Date: Thu, 2 May 2024 20:32:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-06 17:37:33.027692
- Title: Credal Learning Theory
- Title(参考訳): クレダーラーニング理論
- Authors: Michele Caprio, Maryam Sultana, Eleni Elia, Fabio Cuzzolin,
- Abstract要約: 我々は,データ生成分布の変動をモデル化するために,凸集合の確率を用いて,不規則な学習理論の基礎を定めている。
境界は、古典的な結果を直接一般化する有限仮説空間と無限モデル空間の場合に導かれる。
- 参考スコア(独自算出の注目度): 4.64390130376307
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Statistical learning theory is the foundation of machine learning, providing theoretical bounds for the risk of models learnt from a (single) training set, assumed to issue from an unknown probability distribution. In actual deployment, however, the data distribution may (and often does) vary, causing domain adaptation/generalization issues. In this paper we lay the foundations for a `credal' theory of learning, using convex sets of probabilities (credal sets) to model the variability in the data-generating distribution. Such credal sets, we argue, may be inferred from a finite sample of training sets. Bounds are derived for the case of finite hypotheses spaces (both assuming realizability or not) as well as infinite model spaces, which directly generalize classical results.
- Abstract(参考訳): 統計的学習理論は機械学習の基礎であり、未知の確率分布から生じると仮定された(単一の)トレーニングセットから学習したモデルのリスクに関する理論的境界を提供する。
しかし、実際のデプロイメントでは、データの分散は(しばしば)異なるため、ドメイン適応/一般化の問題を引き起こします。
本稿では,データ生成分布の変動をモデル化するために,確率の凸集合(クレダル集合)を用いて,学習の「クレダル」理論の基礎を定式化する。
そのようなクレダル集合は、訓練集合の有限標本から推測されるかもしれない。
境界は有限仮説空間や古典的な結果を直接一般化する無限モデル空間の場合に導かれる。
関連論文リスト
- Which distribution were you sampled from? Towards a more tangible conception of data [7.09435109588801]
機械学習の標準フレームワークは必ずしも良いモデルではない、と私たちは主張する。
抽象分布よりも有限集団に着目した代替フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-24T16:17:14Z) - A Mathematical Framework for Learning Probability Distributions [0.0]
生成的モデリングと密度推定は 近年 非常にポピュラーな話題になっています
本論文は、すべての有名なモデルを単純な原理に基づいて導出できる数学的枠組みを提供する。
特に,これらのモデルが訓練中に暗黙的な正規化を楽しむことを証明し,早期停止時の一般化誤差が次元性の呪いを避ける。
論文 参考訳(メタデータ) (2022-12-22T04:41:45Z) - First Steps Toward Understanding the Extrapolation of Nonlinear Models
to Unseen Domains [35.76184529520015]
本稿では,構造的領域シフトに対する非線形モデルの外挿を解析するための最初のステップについて述べる。
我々は、$f(x)=sum f_i(x_i)$という形の非線形モデルの族が、目に見えない分布に外挿可能であることを証明した。
論文 参考訳(メタデータ) (2022-11-21T18:41:19Z) - Causal Discovery in Heterogeneous Environments Under the Sparse
Mechanism Shift Hypothesis [7.895866278697778]
機械学習のアプローチは、一般に独立で同一に分散されたデータ(すなわち、d)の仮定に依存する。
実際、この仮定は環境間の分散シフトによってほとんど常に破られる。
そこで我々は,様々な経験的推定器に適用可能なスコアベースアプローチであるメカニズムシフトスコア(MSS)を提案する。
論文 参考訳(メタデータ) (2022-06-04T15:39:30Z) - Fairness Transferability Subject to Bounded Distribution Shift [5.62716254065607]
あるソース分布に「フェア」なアルゴリズム予測器が与えられたとしても、あるバウンダリ内のソースと異なる未知のターゲット分布上では、まだフェアなのか?
本研究では,有界分布シフトを考慮した機械学習予測器の統計的グループフェアネスの伝達可能性について検討する。
論文 参考訳(メタデータ) (2022-05-31T22:16:44Z) - On some theoretical limitations of Generative Adversarial Networks [77.34726150561087]
GANが任意の確率分布を生成できるという一般的な仮定である。
GANが重み付き分布を生成できないことを示すExtreme Value Theoryに基づく新しい結果を提供する。
論文 参考訳(メタデータ) (2021-10-21T06:10:38Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - Theoretical Analysis of Self-Training with Deep Networks on Unlabeled
Data [48.4779912667317]
自己学習アルゴリズムは、ニューラルネットワークを使ってラベルのないデータで学ぶことに成功している。
この研究は、半教師なし学習、教師なしドメイン適応、教師なし学習のための深層ネットワークによる自己学習の統一的理論的解析を提供する。
論文 参考訳(メタデータ) (2020-10-07T19:43:55Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Contextuality scenarios arising from networks of stochastic processes [68.8204255655161]
経験的モデルは、その分布が X 上の合同分布を極小化することができなければ文脈的と言える。
我々は、多くのプロセス間の相互作用という、文脈的経験的モデルの異なる古典的な源泉を示す。
長期にわたるネットワークの統計的挙動は、経験的モデルを一般的な文脈的かつ強い文脈的にする。
論文 参考訳(メタデータ) (2020-06-22T16:57:52Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。