論文の概要: Practical machine learning is learning on small samples
- arxiv url: http://arxiv.org/abs/2501.01836v1
- Date: Fri, 03 Jan 2025 14:38:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 15:12:11.671407
- Title: Practical machine learning is learning on small samples
- Title(参考訳): 機械学習は小さなサンプルから学習する
- Authors: Marina Sapir,
- Abstract要約: 統計的学習理論は、そのアプローチを正当化するために、無限に増加するトレーニングサンプルを想像する。
実際、学習には無限の時間や無限の一般集団は存在しない。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Based on limited observations, machine learning discerns a dependence which is expected to hold in the future. What makes it possible? Statistical learning theory imagines indefinitely increasing training sample to justify its approach. In reality, there is no infinite time or even infinite general population for learning. Here I argue that practical machine learning is based on an implicit assumption that underlying dependence is relatively ``smooth" : likely, there are no abrupt differences in feedback between cases with close data points. From this point of view learning shall involve selection of the hypothesis ``smoothly" approximating the training set. I formalize this as Practical learning paradigm. The paradigm includes terminology and rules for description of learners. Popular learners (local smoothing, k-NN, decision trees, Naive Bayes, SVM for classification and for regression) are shown here to be implementations of this paradigm.
- Abstract(参考訳): 限られた観測に基づいて、機械学習は将来保持されるであろう依存を識別する。
何が実現したのか?
統計的学習理論は、そのアプローチを正当化するために、無限に増加するトレーニングサンプルを想像する。
実際、学習には無限の時間や無限の一般集団は存在しない。
ここでは、実践的な機械学習は、基礎となる依存が比較的「smooth」であるという暗黙の仮定に基づいており、おそらく、クローズドなデータポイントを持つケース間のフィードバックに突然の違いはない。この観点からの学習は、トレーニングセットを近似する仮説「smoothly」の選択を伴います。
私はこれを実践的な学習パラダイムとして定式化します。
このパラダイムには、学習者の記述のための用語と規則が含まれている。
一般的な学習者(ローカルスムーシング、k-NN、決定木、Naive Bayes、分類と回帰のためのSVM)は、このパラダイムの実装であることが示されている。
関連論文リスト
- Understanding Self-Supervised Learning via Gaussian Mixture Models [19.51336063093898]
本研究では,ガウス混合モデルにおける自己教師付き学習を自然な文脈で分析する。
ガウスアンが等方的でない場合でも、バニラコントラスト学習が最適の下次元部分空間を見つけることができることを示す。
この設定では、対照的な学習が漁師最適部分空間のサブセットを学習し、学習した表現から全てのノイズを効果的に除去することを示す。
論文 参考訳(メタデータ) (2024-11-05T21:43:05Z) - Reciprocal Learning [0.0]
我々は、機械学習アルゴリズムが1つのパラダイムの特定の例であることを示す。
本稿では,これらのアルゴリズムの一般化として,決定論の言語を用いた相互学習を紹介する。
相反学習アルゴリズムは、損失関数の比較的軽度な仮定の下で、線形速度でほぼ最適なモデルに収束する。
論文 参考訳(メタデータ) (2024-08-12T16:14:52Z) - Ticketed Learning-Unlearning Schemes [57.89421552780526]
そこで我々は,学習のためのチケット付きモデルを提案する。
広義のコンセプトクラスに対して,空間効率のよいチケット付き学習スキームを提供する。
論文 参考訳(メタデータ) (2023-06-27T18:54:40Z) - Chaos is a Ladder: A New Theoretical Understanding of Contrastive
Learning via Augmentation Overlap [64.60460828425502]
コントラスト学習の下流性能に関する新たな保証を提案する。
我々の新しい理論は、攻撃的なデータ強化の下で、異なるクラス内サンプルのサポートがより重なり合うという知見に基づいている。
本稿では、下流の精度とよく一致した教師なしモデル選択距離ARCを提案する。
論文 参考訳(メタデータ) (2022-03-25T05:36:26Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - A Theory of Universal Learning [26.51949485387526]
普遍的な学習の確率は3つしかないことを示す。
任意の概念クラスの学習曲線は指数的あるいは任意に遅い速度で減衰することを示す。
論文 参考訳(メタデータ) (2020-11-09T15:10:32Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。