論文の概要: An Introduction to Modern Statistical Learning
- arxiv url: http://arxiv.org/abs/2207.10185v1
- Date: Wed, 20 Jul 2022 20:30:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 13:25:32.880795
- Title: An Introduction to Modern Statistical Learning
- Title(参考訳): 現代統計学入門
- Authors: Joseph G. Makin
- Abstract要約: 本書は統計学習の統一的な導入をめざしている。
GMMやHMMのような古典的なモデルから、VAEや拡散モデルのような現代的なニューラルネットワークまで、ゆっくりと構築されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work in progress aims to provide a unified introduction to statistical
learning, building up slowly from classical models like the GMM and HMM to
modern neural networks like the VAE and diffusion models. There are today many
internet resources that explain this or that new machine-learning algorithm in
isolation, but they do not (and cannot, in so brief a space) connect these
algorithms with each other or with the classical literature on statistical
models, out of which the modern algorithms emerged. Also conspicuously lacking
is a single notational system which, although unfazing to those already
familiar with the material (like the authors of these posts), raises a
significant barrier to the novice's entry. Likewise, I have aimed to assimilate
the various models, wherever possible, to a single framework for inference and
learning, showing how (and why) to change one model into another with minimal
alteration (some of them novel, others from the literature).
Some background is of course necessary. I have assumed the reader is familiar
with basic multivariable calculus, probability and statistics, and linear
algebra. The goal of this book is certainly not completeness, but rather to
draw a more or less straight-line path from the basics to the extremely
powerful new models of the last decade. The goal then is to complement, not
replace, such comprehensive texts as Bishop's \emph{Pattern Recognition and
Machine Learning}, which is now 15 years old.
- Abstract(参考訳): この研究は、GMMやHMMのような古典的なモデルから、VAEや拡散モデルのような現代的なニューラルネットワークに至るまで、統計学習の統一的な導入を目指している。
今日では、これやその新しい機械学習アルゴリズムを分離して説明するインターネットリソースが数多く存在するが、それらはこれらのアルゴリズムを互いに接続したり、統計モデル上の古典文学と結びつけたり(そしてそう簡単にはできない)、現代のアルゴリズムが出現した。
また、この資料に慣れ親しんだ人々(例えばこれらのポストの著者)には不都合な1つの表記体系が欠落しており、初心者の参入に重大な障壁を生じさせている。
同様に、私は様々なモデルを可能な限り推論と学習のための単一のフレームワークに統一することを目指してきました。
もちろん、いくつかの背景は必要です。
私は読者が基本的な多変量計算、確率と統計学、線形代数に精通していると仮定した。
この本の目的は明らかに完全性ではなく、基本から過去10年間の非常に強力な新モデルまで、多かれ少なかれ直線的な道をたどることである。
その目標は、ビショップの‘emph{Pattern Recognition and Machine Learning}’(現在15歳)のような包括的なテキストを補完し、置き換えることである。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Neural Metamorphosis [72.88137795439407]
本稿では,ニューラル・メタモルファス(NeuMeta)と呼ばれる,自己変形可能なニューラルネットワークの構築を目的とした新たな学習パラダイムを提案する。
NeuMetaはニューラルネットワークの連続重み多様体を直接学習する。
75%の圧縮速度でもフルサイズの性能を維持する。
論文 参考訳(メタデータ) (2024-10-10T14:49:58Z) - Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - Learning to Continually Learn with the Bayesian Principle [36.75558255534538]
本研究では、ニューラルネットワークの強力な表現力と、忘れることに対する単純な統計モデルの堅牢性を組み合わせたメタラーニングパラダイムを採用する。
ニューラルネットワークは継続学習中に固定されているため、破滅的な忘れ物から保護されている。
論文 参考訳(メタデータ) (2024-05-29T04:53:31Z) - From system models to class models: An in-context learning paradigm [0.0]
本稿では,1段階の予測と複数段階のシミュレーションという2つの主要な課題に対処する,システム識別のための新しいパラダイムを提案する。
動的システムのクラスを表すメタモデルを学ぶ。
一段階の予測では、GPTのようなデコーダのみのアーキテクチャを使用し、シミュレーション問題ではエンコーダ-デコーダ構造を用いる。
論文 参考訳(メタデータ) (2023-08-25T13:50:17Z) - Continual Zero-Shot Learning through Semantically Guided Generative
Random Walks [56.65465792750822]
生成モデルを利用して、学習中に見えない情報が提供されない連続ゼロショット学習の課題に対処する。
本稿では,新しい意味誘導型生成ランダムウォーク(GRW)損失を用いた学習アルゴリズムを提案する。
提案アルゴリズムは,AWA1,AWA2,CUB,SUNデータセットの最先端性能を達成し,既存のCZSL手法を3~7%上回る結果を得た。
論文 参考訳(メタデータ) (2023-08-23T18:10:12Z) - Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods
in Natural Language Processing [78.8500633981247]
本稿では,自然言語処理における新たなパラダイムにおける研究成果の探索と整理を行う。
入力xを取り込んで出力yをP(y|x)として予測するようにモデルを訓練する従来の教師付き学習とは異なり、プロンプトベースの学習は直接テキストの確率をモデル化する言語モデルに基づいている。
論文 参考訳(メタデータ) (2021-07-28T18:09:46Z) - A Simple Approach to Case-Based Reasoning in Knowledge Bases [56.661396189466664]
我々は,古典人工知能(AI)におけるケースベース推論を想起させる,アンフノトレーニングを必要とする知識グラフ(KG)における推論に対する驚くほど単純かつ正確なアプローチを提案する。
ソースエンティティとバイナリ関係が与えられたターゲットエンティティを見つけるタスクを考えてみましょう。
我々の非パラメトリックなアプローチは、与えられた関係を通して類似したソースエンティティを接続する複数のテキストトグラフパスパターンを見つけることによって、クエリ毎にクレープな論理ルールを導出します。
論文 参考訳(メタデータ) (2020-06-25T06:28:09Z) - A Generic and Model-Agnostic Exemplar Synthetization Framework for
Explainable AI [29.243901669124515]
我々は、説明可能なAIに焦点をあて、入力例を合成するための新しい汎用的でモデルに依存しないフレームワークを提案する。
我々は、データ生成の先行として機能する生成モデルを使用し、新しい進化戦略を用いて、その潜在空間をトラバースする。
私たちのフレームワークはモデルに依存しませんが、私たちが説明しようとしている機械学習モデルはブラックボックスです。
論文 参考訳(メタデータ) (2020-06-06T15:46:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。