論文の概要: Statistical learning theory and Occam's razor: The argument from
empirical risk minimization
- arxiv url: http://arxiv.org/abs/2312.13842v1
- Date: Thu, 21 Dec 2023 13:40:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 14:55:29.922486
- Title: Statistical learning theory and Occam's razor: The argument from
empirical risk minimization
- Title(参考訳): 統計的学習理論とoccamのカミソリ--経験的リスク最小化からの議論
- Authors: Tom F. Sterkenburg
- Abstract要約: この論文は、経験的リスク最小化の方法に対する統計的学習理論の中央数学的学習保証に基づいて構築された、有資格な手段終末とモデル相対的正当化論を綴っている。
- 参考スコア(独自算出の注目度): 1.6317061277457001
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper considers the epistemic justification for a simplicity preference
in inductive inference that may be obtained from the machine learning framework
of statistical learning theory. Uniting elements from both earlier arguments
suggesting and rejecting such a justification, the paper spells out a qualified
means-ends and model-relative justificatory argument, built on statistical
learning theory's central mathematical learning guarantee for the method of
empirical risk minimization.
- Abstract(参考訳): 本稿では,統計学習理論の機械学習の枠組みから得られる帰納的推論における単純性選好の認識論的正当性について考察する。
この論文は、そのような正当化を示唆し否定する以前の議論の要素をまとめ、統計的学習理論の実証的リスク最小化法に対する中央数学的学習保証に基づいて構築された、有資格な手段終末とモデル相対的正当化論を綴った。
関連論文リスト
- The Foundations of Tokenization: Statistical and Computational Concerns [51.370165245628975]
トークン化は、NLPパイプラインにおける重要なステップである。
NLPにおける標準表現法としての重要性は認識されているが、トークン化の理論的基盤はまだ完全には理解されていない。
本稿では,トークン化モデルの表現と解析のための統一的な形式的枠組みを提案することによって,この理論的ギャップに対処することに貢献している。
論文 参考訳(メタデータ) (2024-07-16T11:12:28Z) - Generalising realisability in statistical learning theory under
epistemic uncertainty [5.7205053622241735]
本稿では, 確率分布の凸集合(convex set of probability distributions)という, 同じ潮流集合から列車および試験分布が発行されるという仮定の下で, 可逆性などの統計学習理論における中心的な概念を一般化する方法について考察する。
論文 参考訳(メタデータ) (2024-02-22T18:20:25Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - A Theory for Emergence of Complex Skills in Language Models [56.947273387302616]
今日のAI製品の主要な要因は、パラメータセットとトレーニングコーパスのスケールアップ時に、言語モデルに新たなスキルが現れることだ。
本稿では,LSMの有名な(かつ実証的な)スケーリング法則と単純な統計的枠組みを用いて,その出現を解析する。
論文 参考訳(メタデータ) (2023-07-29T09:22:54Z) - Towards Trustworthy Explanation: On Causal Rationalization [9.48539398357156]
本研究では,2つの因果デシラタに基づく合理化モデルを提案する。
提案した因果合理化の優れた性能は,実世界のレビューや医療データセットで実証されている。
論文 参考訳(メタデータ) (2023-06-25T03:34:06Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - The role of prior information and computational power in Machine
Learning [0.0]
本稿では,事前情報と計算能力を用いて学習問題を解決する方法について論じる。
我々は高い計算能力を利用することは高い性能の利点があると主張している。
論文 参考訳(メタデータ) (2022-10-31T20:39:53Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Learning Topic Models: Identifiability and Finite-Sample Analysis [6.181048261489101]
本稿では,特定の統合可能性に基づく潜在トピックの最大確率推定器(MLE)を提案する。
シミュレーションと実データの両方について実証的研究を行った。
論文 参考訳(メタデータ) (2021-10-08T16:35:42Z) - A Topological Perspective on Causal Inference [10.965065178451104]
仮定のない因果推論は、構造因果モデルの単なる集合においてのみ可能であることを示す。
以上の結果から,有効な因果推論を行うのに十分な帰納的仮定は,原理上は統計的に検証できないことが示唆された。
我々のトポロジカルアプローチのさらなる利点は、無限に多くの変数を持つSCMに容易に対応できることである。
論文 参考訳(メタデータ) (2021-07-18T23:09:03Z) - Marginal likelihood computation for model selection and hypothesis
testing: an extensive review [66.37504201165159]
この記事では、このトピックの最先端に関する総合的な研究について紹介する。
さまざまなテクニックの制限、メリット、コネクション、差異を強調します。
また、不適切な事前利用の問題や解決法についても述べる。
論文 参考訳(メタデータ) (2020-05-17T18:31:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。