論文の概要: Statistical learning theory and Occam's razor: The core argument
- arxiv url: http://arxiv.org/abs/2312.13842v2
- Date: Fri, 29 Nov 2024 16:02:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:14:56.248444
- Title: Statistical learning theory and Occam's razor: The core argument
- Title(参考訳): 統計的学習理論とオッカムのカミソリ--中心的論点
- Authors: Tom F. Sterkenburg,
- Abstract要約: 本稿では,統計的学習理論から得られる単純さの核となる議論を精査する。
これは、経験的リスク最小化の方法に関する理論の中心的な学習保証に基づいて構築されている。
- 参考スコア(独自算出の注目度): 1.6317061277457001
- License:
- Abstract: Statistical learning theory is often associated with the principle of Occam's razor, which recommends a simplicity preference in inductive inference. This paper distills the core argument for simplicity obtainable from statistical learning theory, built on the theory's central learning guarantee for the method of empirical risk minimization. This core "means-ends" argument is that a simpler hypothesis class or inductive model is better because it has better learning guarantees; however, these guarantees are model-relative and so the theoretical push towards simplicity is checked by our prior knowledge.
- Abstract(参考訳): 統計的学習理論は、しばしば、帰納的推論の単純さを推奨するオッカムのカミソリの原理と関連付けられている。
本稿では,実験的リスク最小化法における理論の中心的学習保証に基づく,統計的学習理論から得られる単純さの核となる議論を精査する。
この中核的な"目的末"の議論は、より単純な仮説クラスや帰納的モデルの方が、より優れた学習保証を持つため、よりよいものである、というものである。
関連論文リスト
- The Foundations of Tokenization: Statistical and Computational Concerns [51.370165245628975]
トークン化は、NLPパイプラインにおける重要なステップである。
NLPにおける標準表現法としての重要性は認識されているが、トークン化の理論的基盤はまだ完全には理解されていない。
本稿では,トークン化モデルの表現と解析のための統一的な形式的枠組みを提案することによって,この理論的ギャップに対処することに貢献している。
論文 参考訳(メタデータ) (2024-07-16T11:12:28Z) - Generalising realisability in statistical learning theory under
epistemic uncertainty [5.7205053622241735]
本稿では, 確率分布の凸集合(convex set of probability distributions)という, 同じ潮流集合から列車および試験分布が発行されるという仮定の下で, 可逆性などの統計学習理論における中心的な概念を一般化する方法について考察する。
論文 参考訳(メタデータ) (2024-02-22T18:20:25Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - A Theory for Emergence of Complex Skills in Language Models [56.947273387302616]
今日のAI製品の主要な要因は、パラメータセットとトレーニングコーパスのスケールアップ時に、言語モデルに新たなスキルが現れることだ。
本稿では,LSMの有名な(かつ実証的な)スケーリング法則と単純な統計的枠組みを用いて,その出現を解析する。
論文 参考訳(メタデータ) (2023-07-29T09:22:54Z) - Towards Trustworthy Explanation: On Causal Rationalization [9.48539398357156]
本研究では,2つの因果デシラタに基づく合理化モデルを提案する。
提案した因果合理化の優れた性能は,実世界のレビューや医療データセットで実証されている。
論文 参考訳(メタデータ) (2023-06-25T03:34:06Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - The role of prior information and computational power in Machine
Learning [0.0]
本稿では,事前情報と計算能力を用いて学習問題を解決する方法について論じる。
我々は高い計算能力を利用することは高い性能の利点があると主張している。
論文 参考訳(メタデータ) (2022-10-31T20:39:53Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Learning Topic Models: Identifiability and Finite-Sample Analysis [6.181048261489101]
本稿では,特定の統合可能性に基づく潜在トピックの最大確率推定器(MLE)を提案する。
シミュレーションと実データの両方について実証的研究を行った。
論文 参考訳(メタデータ) (2021-10-08T16:35:42Z) - A Topological Perspective on Causal Inference [10.965065178451104]
仮定のない因果推論は、構造因果モデルの単なる集合においてのみ可能であることを示す。
以上の結果から,有効な因果推論を行うのに十分な帰納的仮定は,原理上は統計的に検証できないことが示唆された。
我々のトポロジカルアプローチのさらなる利点は、無限に多くの変数を持つSCMに容易に対応できることである。
論文 参考訳(メタデータ) (2021-07-18T23:09:03Z) - Marginal likelihood computation for model selection and hypothesis
testing: an extensive review [66.37504201165159]
この記事では、このトピックの最先端に関する総合的な研究について紹介する。
さまざまなテクニックの制限、メリット、コネクション、差異を強調します。
また、不適切な事前利用の問題や解決法についても述べる。
論文 参考訳(メタデータ) (2020-05-17T18:31:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。