論文の概要: The unstable formula theorem revisited
- arxiv url: http://arxiv.org/abs/2212.05050v1
- Date: Fri, 9 Dec 2022 18:53:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-12-12 16:22:40.322320
- Title: The unstable formula theorem revisited
- Title(参考訳): 不安定な公式定理の再検討
- Authors: Maryanthe Malliaris, Shay Moran
- Abstract要約: まず、モデル理論者が安定と呼ぶLittlestoneクラスが、新しい統計モデルで学習可能性を特徴付けることを証明した。
次に、学習環境におけるシェラの有名な(そしておそらくは事前の可解な)不安定な公式定理の完全な類似点を提示する。
- 参考スコア(独自算出の注目度): 17.736645608595758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We first prove that Littlestone classes, those which model theorists call
stable, characterize learnability in a new statistical model: a learner in this
new setting outputs the same hypothesis, up to measure zero, with probability
one, after a uniformly bounded number of revisions. This fills a certain gap in
the literature, and sets the stage for an approximation theorem characterizing
Littlestone classes in terms of a range of learning models, by analogy to
definability of types in model theory. We then give a complete analogue of
Shelah's celebrated (and perhaps a priori untranslatable) Unstable Formula
Theorem in the learning setting, with algorithmic arguments taking the place of
the infinite.
- Abstract(参考訳): 我々はまず、モデル理論者が安定と呼ぶリトルストーンクラスが新しい統計モデルにおいて学習可能性を特徴付けることを証明した:この新しい設定の学習者は、一様有界なリビジョンの後に、確率 1 でゼロを測る同じ仮説を出力する。
これは文学におけるある種のギャップを埋め、モデル理論における型の定義可能性に類似して、リトルストーンクラスを学習モデルの範囲で特徴づける近似定理のステージを設定する。
次に、学習環境においてシェラの有名な(そしておそらくは事前の)不安定な数式定理の完全な類似を、アルゴリズム的議論が無限の代わりとなるように与える。
関連論文リスト
- A Mean-Field Theory of $Θ$-Expectations [2.1756081703276]
我々はそのような非線形モデルのための新しい計算のクラスを開発する。
Theta-Expectation は部分付加性の公理と一致することが示されている。
論文 参考訳(メタデータ) (2025-07-30T11:08:56Z) - A Theory of $θ$-Expectations [2.1756081703276]
我々は、ドライバーがポイントワイズ幾何学である微分方程式のクラスのためのフレームワークを開発する。
システムのトラクタビリティは、世界的なユニークかつグローバルな存在を前提としている。
ドライバー関数に対するリプシッツ最大値写像。
論文 参考訳(メタデータ) (2025-07-27T16:56:01Z) - Notes on solvable models of many-body quantum chaos [15.617052284991203]
ブラウン・サハデフ・イェ・キタエフモデルに関連する多くの身体カオスモデルのクラスについて検討する。
創発対称性は量子力学を古典的過程にマッピングする。
論文 参考訳(メタデータ) (2024-08-20T18:24:52Z) - A Unified Theory of Stochastic Proximal Point Methods without Smoothness [52.30944052987393]
近点法はその数値的安定性と不完全なチューニングに対する頑健性からかなりの関心を集めている。
本稿では,近位点法(SPPM)の幅広いバリエーションの包括的解析について述べる。
論文 参考訳(メタデータ) (2024-05-24T21:09:19Z) - Understanding the differences in Foundation Models: Attention, State Space Models, and Recurrent Neural Networks [50.29356570858905]
本稿では,これらすべてのアーキテクチャの共通表現に関する原則的な調査を可能にする動的システムフレームワーク(DSF)について紹介する。
ソフトマックスアテンションと他のモデルクラスとの原理的比較を行い、ソフトマックスアテンションを近似できる理論条件について議論する。
このことは、DSFが将来のより効率的でスケーラブルな基盤モデルの体系的な開発を導く可能性を示している。
論文 参考訳(メタデータ) (2024-05-24T17:19:57Z) - Geometric Neural Diffusion Processes [55.891428654434634]
拡散モデルの枠組みを拡張して、無限次元モデリングに一連の幾何学的先行を組み込む。
これらの条件で、生成関数モデルが同じ対称性を持つことを示す。
論文 参考訳(メタデータ) (2023-07-11T16:51:38Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Distributed Bayesian Learning of Dynamic States [65.7870637855531]
提案アルゴリズムは有限状態隠れマルコフモデルに対する分散ベイズフィルタタスクである。
逐次状態推定や、動的環境下でのソーシャルネットワーク上での意見形成のモデル化に使用できる。
論文 参考訳(メタデータ) (2022-12-05T19:40:17Z) - Oracle Inequalities for Model Selection in Offline Reinforcement
Learning [105.74139523696284]
本稿では,値関数近似を用いたオフラインRLにおけるモデル選択の問題について検討する。
対数係数まで最小値の速度-最適不等式を実現するオフラインRLの最初のモデル選択アルゴリズムを提案する。
そこで本研究では,優れたモデルクラスを確実に選択できることを示す数値シミュレーションを行った。
論文 参考訳(メタデータ) (2022-11-03T17:32:34Z) - Realizable Learning is All You Need [21.34668631009594]
実現可能かつ不可知的な学習可能性の同値性は、学習理論における基本的な現象である。
実現可能かつ不可知な学習可能性の同値性を説明する最初のモデルに依存しないフレームワークを提示する。
論文 参考訳(メタデータ) (2021-11-08T19:00:00Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Agnostic Online Learning and Excellent Sets [18.557423328068122]
モデル理論の意味で、$epsilon$-excellent set が任意の $epsilon frac12$ in $k$-edge 安定グラフに対して存在することを示す。
また、この設定に適した動的Sauer-Shelah-Perles lemmaのバージョンも提供します。
論文 参考訳(メタデータ) (2021-08-12T07:33:33Z) - Proof of the Contiguity Conjecture and Lognormal Limit for the Symmetric
Perceptron [21.356438315715888]
我々は、ニューラルネットワークの単純なモデルである対称バイナリパーセプトロンモデルを検討する。
このモデルのためのいくつかの予想を確立する。
この証明手法は,小さなグラフ条件付け手法の密な反部分に依存する。
論文 参考訳(メタデータ) (2021-02-25T18:39:08Z) - Why Adversarial Interaction Creates Non-Homogeneous Patterns: A
Pseudo-Reaction-Diffusion Model for Turing Instability [10.933825676518195]
交叉相互作用を持つニューロン系のチューリング様パターンを観察する。
本稿では,これらの現象を過小評価するメカニズムを説明するための擬似反応拡散モデルを提案する。
論文 参考訳(メタデータ) (2020-10-01T16:09:22Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Learning CHARME models with neural networks [1.5362025549031046]
我々はCHARME(Conditional Heteroscedastic Autoregressive Mixture of Experts)と呼ばれるモデルを考える。
そこで本研究では,NNに基づく自己回帰関数の学習理論を開発した。
論文 参考訳(メタデータ) (2020-02-08T21:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。