論文の概要: MAP- and MLE-Based Teaching
- arxiv url: http://arxiv.org/abs/2307.05252v1
- Date: Tue, 11 Jul 2023 13:35:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-12 14:54:29.266839
- Title: MAP- and MLE-Based Teaching
- Title(参考訳): MAPとMLEに基づく教育
- Authors: Hans Ulrich Simon, Jan Arne Telle
- Abstract要約: MAP-Learnerは、観測の集合から隠れた概念を推論しようとします。
この学習モデルは望ましい単調性を持つことを示す。
例えば、MLE-Teaching 次元がMAP-Teaching 次元と等しいか、後者を 1 で上回っていることが示される。
- 参考スコア(独自算出の注目度): 0.21320960069210473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imagine a learner L who tries to infer a hidden concept from a collection of
observations. Building on the work [4] of Ferri et al., we assume the learner
to be parameterized by priors P(c) and by c-conditional likelihoods P(z|c)
where c ranges over all concepts in a given class C and z ranges over all
observations in an observation set Z. L is called a MAP-learner (resp. an
MLE-learner) if it thinks of a collection S of observations as a random sample
and returns the concept with the maximum a-posteriori probability (resp. the
concept which maximizes the c-conditional likelihood of S). Depending on
whether L assumes that S is obtained from ordered or unordered sampling resp.
from sampling with or without replacement, we can distinguish four different
sampling modes. Given a target concept c in C, a teacher for a MAP-learner L
aims at finding a smallest collection of observations that causes L to return
c. This approach leads in a natural manner to various notions of a MAP- or
MLE-teaching dimension of a concept class C. Our main results are: We show that
this teaching model has some desirable monotonicity properties. We clarify how
the four sampling modes are related to each other. As for the (important!)
special case, where concepts are subsets of a domain and observations are
0,1-labeled examples, we obtain some additional results. First of all, we
characterize the MAP- and MLE-teaching dimension associated with an optimally
parameterized MAP-learner graph-theoretically. From this central result, some
other ones are easy to derive. It is shown, for instance, that the MLE-teaching
dimension is either equal to the MAP-teaching dimension or exceeds the latter
by 1. It is shown furthermore that these dimensions can be bounded from above
by the so-called antichain number, the VC-dimension and related combinatorial
parameters. Moreover they can be computed in polynomial time.
- Abstract(参考訳): 観測の集合から隠れた概念を推論しようとする学習者Lを想像してください。
Building on the work [4] of Ferri et al., we assume the learner to be parameterized by priors P(c) and by c-conditional likelihoods P(z|c) where c ranges over all concepts in a given class C and z ranges over all observations in an observation set Z. L is called a MAP-learner (resp. an MLE-learner) if it thinks of a collection S of observations as a random sample and returns the concept with the maximum a-posteriori probability (resp. the concept which maximizes the c-conditional likelihood of S).
L は S が順序付きサンプリング resp から得られると仮定する。
置換の有無に関わらず,4種類のサンプリングモードを識別できる。
C の目標概念 c が与えられたとき、MAP-学習者 L の教師は、L が c を返す原因となる観測の最小の集合を見つけることを目的としている。
このアプローチは、概念クラス C のMAP-あるいはMLE-Teaching dimension の様々な概念に自然に導かれる。
4つのサンプリングモードが相互にどのように関連しているかを明らかにする。
重要な!)特別なケースでは、概念がドメインのサブセットであり、観察が0,1ラベルの例である場合、追加の結果が得られる。
まず、最適パラメータ化されたMAPラーナーグラフに付随するMAPとMLEの学習次元を理論的に特徴づける。
この中心的な結果から、他のいくつかは容易に導出できる。
例えば、MLE-Teaching 次元がMAP-Teaching 次元と等しいか、後者を 1 で上回っていることが示される。
さらに、これらの次元は、いわゆるアンチチェーン数、vc次元および関連する組合せパラメータによって上から境界化できることを示した。
さらに多項式時間で計算することもできる。
関連論文リスト
- Orthogonal polynomial approximation and Extended Dynamic Mode Decomposition in chaos [0.0]
拡張動的モード分解(EDMD)は、ダイナミックスの予測とモデル縮小のためのデータ駆動型ツールである。
特に、EDMDがカオスシステムが作用する微分可能な関数のクラスをどのように扱うかは明らかになっていない。
我々は、カオス写像の最も単純な例に基づいて、EDMDの汎用的で厳密な理論を初めて開発する。
論文 参考訳(メタデータ) (2023-05-14T05:14:51Z) - Low-variance estimation in the Plackett-Luce model via quasi-Monte Carlo
sampling [58.14878401145309]
PLモデルにおいて,より標本効率の高い予測値を生成するための新しい手法を開発した。
Amazon MusicのリアルなレコメンデーションデータとYahooの学習からランクへの挑戦を理論的にも実証的にも使用しています。
論文 参考訳(メタデータ) (2022-05-12T11:15:47Z) - Reinforcement Learning from Partial Observation: Linear Function Approximation with Provable Sample Efficiency [111.83670279016599]
部分観察決定過程(POMDP)の無限観測および状態空間を用いた強化学習について検討した。
線形構造をもつPOMDPのクラスに対する部分可観測性と関数近似の最初の試みを行う。
論文 参考訳(メタデータ) (2022-04-20T21:15:38Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Machine Learning Trivializing Maps: A First Step Towards Understanding
How Flow-Based Samplers Scale Up [0.6445605125467573]
自明な写像の近似は、可逆で微分可能なモデルのクラスによって「機械学習」できることを示す。
最大202ドルの格子サイトを持つ2次元の$phi4$を用いて、探索的スケーリング研究を行う。
論文 参考訳(メタデータ) (2021-12-31T16:17:19Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - LIFT-CAM: Towards Better Explanations for Class Activation Mapping [0.0]
クラスアクティベーションマッピング(CAM)に基づく手法は,CNNからのアクティベーションマップの線形結合による視覚的説明マップを生成する。
LIFT-CAMと呼ばれる効率的な近似法を提案する。
定性的かつ定量的な面において、他のCAMベースの方法よりも優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-02-10T02:43:50Z) - Sampling in Combinatorial Spaces with SurVAE Flow Augmented MCMC [83.48593305367523]
ハイブリッドモンテカルロ(Hybrid Monte Carlo)は、複素連続分布からサンプリングする強力なマルコフ連鎖モンテカルロ法である。
本稿では,SurVAEフローを用いたモンテカルロ法の拡張に基づく新しい手法を提案する。
本稿では,統計学,計算物理学,機械学習など,様々な分野におけるアルゴリズムの有効性を実証し,代替アルゴリズムと比較した改良点を考察する。
論文 参考訳(メタデータ) (2021-02-04T02:21:08Z) - Proper Learning, Helly Number, and an Optimal SVM Bound [29.35254938542589]
適切な学習アルゴリズムにより最適なサンプル複雑性を達成できるクラスを特徴付ける。
双対ヘリー数が有界であることと、$epsilon$ と $delta$ に適切な合同依存が存在することを示せる。
論文 参考訳(メタデータ) (2020-05-24T18:11:57Z) - Approximate MMAP by Marginal Search [78.50747042819503]
本稿では,グラフィカルモデルにおける最小値MAPクエリの戦略を提案する。
提案した信頼度尺度は,アルゴリズムが正確であるインスタンスを適切に検出するものである。
十分に高い信頼度を得るために、アルゴリズムは正確な解を与えるか、正確な解からハミング距離が小さい近似を与える。
論文 参考訳(メタデータ) (2020-02-12T07:41:13Z) - Finite-Sample Analysis of Stochastic Approximation Using Smooth Convex
Envelopes [40.31139355952393]
一般化エンベロープを用いて滑らかなリャプノフ函数を構築し、そのリャプノフ函数に対してSAの反復体が負のドリフトを持つことを示す。
特に、政治以外のTD学習において、Vトレースアルゴリズムの最初の既知収束率を確立するためにこれを用いる。
また、TD学習を現場で研究し、既存の最先端の成果を$Q$ラーニングで回収する。
論文 参考訳(メタデータ) (2020-02-03T16:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。