論文の概要: Logical perspectives on learning statistical objects
- arxiv url: http://arxiv.org/abs/2504.00847v1
- Date: Tue, 01 Apr 2025 14:34:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:18:00.683815
- Title: Logical perspectives on learning statistical objects
- Title(参考訳): 統計的対象の学習における論理的視点
- Authors: Aaron Anderson, Michael Benedikt,
- Abstract要約: 集合 X 上の関数の基底クラス'' の学習可能性と基底クラスから派生した統計関数の学習可能性の関係を考察する。
例えば、関数のファミリーの学習性は、クラス内の関数をその分布の下で期待するものにマッピングする関数のファミリーの学習性を意味することを示す。
- 参考スコア(独自算出の注目度): 0.6906005491572398
- License:
- Abstract: We consider the relationship between learnability of a ``base class'' of functions on a set X and learnability of a class of statistical functions derived from the base class. For example, we refine results showing that learnability of a family of functions implies learnability of the family of functions mapping a function in the class to its expectation under a distribution. We will look at both Probably Approximately Correct (PAC) learning, where example inputs and outputs are chosen at random, and online learning, where the examples are chosen adversarially. We establish improved bounds on the sample complexity of learning for statistical classes, stated in terms of combinatorial dimensions of the base class. We do this by adapting techniques introduced in model theory for ``randomizing a structure''. We give particular attention to classes derived from logical formulas, and relate learnability of the statistical classes to properties of the formula. Finally, we provide bounds on the complexity of learning the statistical classes built on top of a logic-based hypothesis class.
- Abstract(参考訳): 集合 X 上の関数の ``base class''' の学習可能性と基底クラスから派生した統計関数のクラス学習可能性の関係を考察する。
例えば、関数のファミリーの学習性は、クラス内の関数をその分布の下で期待するものにマッピングする関数のファミリーの学習性を意味することを示す。
Probably Aough Correct (PAC)ラーニングでは、ランダムに入力とアウトプットが選択され、オンラインラーニングではサンプルが反対に選択される。
基礎クラスの組合せ次元の観点で述べた統計クラスに対する学習のサンプル複雑性に関する改善された境界を定めている。
我々は 'randomizing a structure'' のモデル理論で導入された手法を適用してこれを行う。
論理式から派生したクラスに特に注意を払い、統計クラスの学習可能性と公式の性質を関連付ける。
最後に、論理ベースの仮説クラスの上に構築された統計クラスを学習することの複雑さに関するバウンダリを提供する。
関連論文リスト
- Neural Feature Learning in Function Space [5.807950618412389]
本稿では,ニューラル特徴抽出器を用いたシステム設計学習フレームワークを提案する。
内部積を備えた関数空間における統計的依存と特徴表現を統一する特徴幾何学を導入する。
データサンプルから最適な特徴を学習するための体系的なアルゴリズム設計を提供するネスト手法を提案する。
論文 参考訳(メタデータ) (2023-09-18T20:39:12Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - An Entropy-Based Model for Hierarchical Learning [3.1473798197405944]
実世界のデータセットに共通する特徴は、データドメインがマルチスケールであることである。
本稿では,このマルチスケールデータ構造を利用した学習モデルを提案する。
階層的な学習モデルは、人間の論理的かつ進歩的な学習メカニズムにインスパイアされている。
論文 参考訳(メタデータ) (2022-12-30T13:14:46Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Learning versus Refutation in Noninteractive Local Differential Privacy [133.80204506727526]
非対話的局所差分プライバシー(LDP)における2つの基本的な統計課題について検討する。
本研究の主な成果は,非対話型LDPプロトコルにおけるPAC学習の複雑さの完全な評価である。
論文 参考訳(メタデータ) (2022-10-26T03:19:24Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - What Can Transformers Learn In-Context? A Case Study of Simple Function
Classes [67.06980111346245]
インコンテキスト学習(In-context learning)とは、インコンテキストの例からなるプロンプトシーケンスでモデルに条件を付ける能力である。
我々は,標準変換器をスクラッチから訓練して,線形関数の文脈内学習を行うことを示した。
また、タスク固有の学習アルゴリズムに適合または超越したパフォーマンスで、より複雑な関数クラスをコンテキスト内で学習できるようにトランスフォーマーを訓練できることも示している。
論文 参考訳(メタデータ) (2022-08-01T18:01:40Z) - Realizable Learning is All You Need [21.34668631009594]
実現可能かつ不可知的な学習可能性の同値性は、学習理論における基本的な現象である。
実現可能かつ不可知な学習可能性の同値性を説明する最初のモデルに依存しないフレームワークを提示する。
論文 参考訳(メタデータ) (2021-11-08T19:00:00Z) - When Hardness of Approximation Meets Hardness of Learning [35.39956227364153]
線形クラスと浅層ネットワークを用いた近似の硬さと,相関クエリと勾配差を用いた学習の硬さを両立させる単一の硬さ特性を示す。
これにより、パリティ関数、DNF式および$AC0$回路の近似の硬さと学習性に関する新たな結果が得られる。
論文 参考訳(メタデータ) (2020-08-18T17:41:28Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z) - An Epistemic Approach to the Formal Specification of Statistical Machine
Learning [1.599072005190786]
Kripkeモデルに基づく教師あり学習のための形式モデルを提案する。
次に、統計分類器の分類性能、頑健性、公正性の様々な概念を定式化する。
論文 参考訳(メタデータ) (2020-04-27T12:16:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。