論文の概要: An Introduction to Modern Statistical Learning
- arxiv url: http://arxiv.org/abs/2207.10185v1
- Date: Wed, 20 Jul 2022 20:30:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 13:25:32.880795
- Title: An Introduction to Modern Statistical Learning
- Title(参考訳): 現代統計学入門
- Authors: Joseph G. Makin
- Abstract要約: 本書は統計学習の統一的な導入をめざしている。
GMMやHMMのような古典的なモデルから、VAEや拡散モデルのような現代的なニューラルネットワークまで、ゆっくりと構築されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work in progress aims to provide a unified introduction to statistical
learning, building up slowly from classical models like the GMM and HMM to
modern neural networks like the VAE and diffusion models. There are today many
internet resources that explain this or that new machine-learning algorithm in
isolation, but they do not (and cannot, in so brief a space) connect these
algorithms with each other or with the classical literature on statistical
models, out of which the modern algorithms emerged. Also conspicuously lacking
is a single notational system which, although unfazing to those already
familiar with the material (like the authors of these posts), raises a
significant barrier to the novice's entry. Likewise, I have aimed to assimilate
the various models, wherever possible, to a single framework for inference and
learning, showing how (and why) to change one model into another with minimal
alteration (some of them novel, others from the literature).
Some background is of course necessary. I have assumed the reader is familiar
with basic multivariable calculus, probability and statistics, and linear
algebra. The goal of this book is certainly not completeness, but rather to
draw a more or less straight-line path from the basics to the extremely
powerful new models of the last decade. The goal then is to complement, not
replace, such comprehensive texts as Bishop's \emph{Pattern Recognition and
Machine Learning}, which is now 15 years old.
- Abstract(参考訳): この研究は、GMMやHMMのような古典的なモデルから、VAEや拡散モデルのような現代的なニューラルネットワークに至るまで、統計学習の統一的な導入を目指している。
今日では、これやその新しい機械学習アルゴリズムを分離して説明するインターネットリソースが数多く存在するが、それらはこれらのアルゴリズムを互いに接続したり、統計モデル上の古典文学と結びつけたり(そしてそう簡単にはできない)、現代のアルゴリズムが出現した。
また、この資料に慣れ親しんだ人々(例えばこれらのポストの著者)には不都合な1つの表記体系が欠落しており、初心者の参入に重大な障壁を生じさせている。
同様に、私は様々なモデルを可能な限り推論と学習のための単一のフレームワークに統一することを目指してきました。
もちろん、いくつかの背景は必要です。
私は読者が基本的な多変量計算、確率と統計学、線形代数に精通していると仮定した。
この本の目的は明らかに完全性ではなく、基本から過去10年間の非常に強力な新モデルまで、多かれ少なかれ直線的な道をたどることである。
その目標は、ビショップの‘emph{Pattern Recognition and Machine Learning}’(現在15歳)のような包括的なテキストを補完し、置き換えることである。
関連論文リスト
- Who's Harry Potter? Approximate Unlearning in LLMs [4.821438899378393]
大きな言語モデル(LLM)は、しばしば著作権のあるコンテンツを含む巨大なインターネットコーパスで訓練されている。
これは、これらのモデルの開発者やユーザ、およびオリジナルの著者や出版者にとって、法的および倫理的な課題を引き起こす。
本稿では,LLMからトレーニングデータのサブセットをスクラッチから再学習する必要がない新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-03T17:48:14Z) - From system models to class models: An in-context learning paradigm [0.0]
本稿では,1段階の予測と複数段階のシミュレーションという2つの主要な課題に対処する,システム識別のための新しいパラダイムを提案する。
動的システムのクラスを表すメタモデルを学ぶ。
一段階の予測では、GPTのようなデコーダのみのアーキテクチャを使用し、シミュレーション問題ではエンコーダ-デコーダ構造を用いる。
論文 参考訳(メタデータ) (2023-08-25T13:50:17Z) - Continual Zero-Shot Learning through Semantically Guided Generative
Random Walks [56.65465792750822]
生成モデルを利用して、学習中に見えない情報が提供されない連続ゼロショット学習の課題に対処する。
本稿では,新しい意味誘導型生成ランダムウォーク(GRW)損失を用いた学習アルゴリズムを提案する。
提案アルゴリズムは,AWA1,AWA2,CUB,SUNデータセットの最先端性能を達成し,既存のCZSL手法を3~7%上回る結果を得た。
論文 参考訳(メタデータ) (2023-08-23T18:10:12Z) - On Inductive Biases for Machine Learning in Data Constrained Settings [0.0]
この論文は、データ制約された設定で表現力のあるモデルを学ぶという問題に対する異なる答えを探求する。
ニューラルネットワークを学ぶために、大きなデータセットに頼るのではなく、データ構造を反映した既知の関数によって、いくつかのモジュールを置き換えるつもりです。
我々のアプローチは「帰納的バイアス」のフードの下に置かれており、これは探索するモデルの空間を制限する手元にあるデータの仮説として定義することができる。
論文 参考訳(メタデータ) (2023-02-21T14:22:01Z) - What learning algorithm is in-context learning? Investigations with
linear models [87.91612418166464]
本稿では,トランスフォーマーに基づくインコンテキスト学習者が標準学習アルゴリズムを暗黙的に実装する仮説について検討する。
訓練された文脈内学習者は、勾配降下、隆起回帰、および正確な最小二乗回帰によって計算された予測値と密に一致していることを示す。
文脈内学習者がこれらの予測器とアルゴリズム的特徴を共有するという予備的証拠。
論文 参考訳(メタデータ) (2022-11-28T18:59:51Z) - From Weakly Supervised Learning to Active Learning [1.52292571922932]
この論文は、教師付き学習よりも汎用的なフレームワークを導き出せるか?
私たちは、ユニークなターゲットではなく、ターゲット候補のセットを与えるものとして、弱い監督をモデル化します。
我々は、ほとんどの観測値と一致する楽観的な'関数を求めるべきだと論じる。これにより、部分ラベルを曖昧にするための原則を導出できる。
論文 参考訳(メタデータ) (2022-09-23T14:55:43Z) - Memorizing Complementation Network for Few-Shot Class-Incremental
Learning [109.4206979528375]
本稿では,新しいタスクにおいて,異なる記憶された知識を補う複数のモデルをアンサンブルするために,MCNet(Memorizing Complementation Network)を提案する。
原型スムージング・ハードマイニング・トリプルト(PSHT)の損失を現時点の課題だけでなく,従来の分布からも引き離すために開発した。
論文 参考訳(メタデータ) (2022-08-11T02:32:41Z) - Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods
in Natural Language Processing [78.8500633981247]
本稿では,自然言語処理における新たなパラダイムにおける研究成果の探索と整理を行う。
入力xを取り込んで出力yをP(y|x)として予測するようにモデルを訓練する従来の教師付き学習とは異なり、プロンプトベースの学習は直接テキストの確率をモデル化する言語モデルに基づいている。
論文 参考訳(メタデータ) (2021-07-28T18:09:46Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - A Simple Approach to Case-Based Reasoning in Knowledge Bases [56.661396189466664]
我々は,古典人工知能(AI)におけるケースベース推論を想起させる,アンフノトレーニングを必要とする知識グラフ(KG)における推論に対する驚くほど単純かつ正確なアプローチを提案する。
ソースエンティティとバイナリ関係が与えられたターゲットエンティティを見つけるタスクを考えてみましょう。
我々の非パラメトリックなアプローチは、与えられた関係を通して類似したソースエンティティを接続する複数のテキストトグラフパスパターンを見つけることによって、クエリ毎にクレープな論理ルールを導出します。
論文 参考訳(メタデータ) (2020-06-25T06:28:09Z) - A Generic and Model-Agnostic Exemplar Synthetization Framework for
Explainable AI [29.243901669124515]
我々は、説明可能なAIに焦点をあて、入力例を合成するための新しい汎用的でモデルに依存しないフレームワークを提案する。
我々は、データ生成の先行として機能する生成モデルを使用し、新しい進化戦略を用いて、その潜在空間をトラバースする。
私たちのフレームワークはモデルに依存しませんが、私たちが説明しようとしている機械学習モデルはブラックボックスです。
論文 参考訳(メタデータ) (2020-06-06T15:46:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。