論文の概要: A Metalearned Neural Circuit for Nonparametric Bayesian Inference
- arxiv url: http://arxiv.org/abs/2311.14601v1
- Date: Fri, 24 Nov 2023 16:43:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 14:37:28.430902
- Title: A Metalearned Neural Circuit for Nonparametric Bayesian Inference
- Title(参考訳): 非パラメトリックベイズ推論のための金属ニューラルネットワーク
- Authors: Jake C. Snell, Gianluca Bencomo, Thomas L. Griffiths
- Abstract要約: 機械学習の分類への応用のほとんどは、バランスの取れたクラスの閉じた集合を前提としている。
これは、クラス発生統計が長い尾の力量分布に従うことがしばしばある実世界と矛盾する。
本研究では,非パラメトリックベイズモデルから誘導バイアスを抽出し,人工ニューラルネットワークに転送する手法を提案する。
- 参考スコア(独自算出の注目度): 4.767884267554628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most applications of machine learning to classification assume a closed set
of balanced classes. This is at odds with the real world, where class
occurrence statistics often follow a long-tailed power-law distribution and it
is unlikely that all classes are seen in a single sample. Nonparametric
Bayesian models naturally capture this phenomenon, but have significant
practical barriers to widespread adoption, namely implementation complexity and
computational inefficiency. To address this, we present a method for extracting
the inductive bias from a nonparametric Bayesian model and transferring it to
an artificial neural network. By simulating data with a nonparametric Bayesian
prior, we can metalearn a sequence model that performs inference over an
unlimited set of classes. After training, this "neural circuit" has distilled
the corresponding inductive bias and can successfully perform sequential
inference over an open set of classes. Our experimental results show that the
metalearned neural circuit achieves comparable or better performance than
particle filter-based methods for inference in these models while being faster
and simpler to use than methods that explicitly incorporate Bayesian
nonparametric inference.
- Abstract(参考訳): 分類への機械学習のほとんどの応用は、バランスのとれたクラスの閉集合を仮定する。
これは、クラス発生統計がしばしばロングテールのパワーロー分布に従う現実の世界と正反対であり、全てのクラスが単一のサンプルで見られる可能性は低い。
非パラメトリックベイズモデルは自然にこの現象をとらえるが、実装の複雑さや計算の非効率性など、広く普及する上で重要な現実的な障壁を持つ。
そこで本研究では,非パラメトリックベイズモデルから誘導バイアスを抽出し,それを人工ニューラルネットワークに転送する手法を提案する。
非パラメトリックベイズ型プリミティブでデータをシミュレートすることで、無制限のクラスセット上で推論を行うシーケンスモデルを生成することができる。
トレーニングの後、この「神経回路」は対応する誘導バイアスを蒸留し、オープンなクラスの集合上でシーケンシャルな推論を成功させることができる。
実験結果から,メタ耳付きニューラルネットワークは,ベイズ非パラメトリック推論を明示的に組み込む手法よりも高速かつ簡便に使用しながら,粒子フィルタに基づく推論法と同等あるいは優れた性能が得られることが示された。
関連論文リスト
- Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - On the Dynamics of Inference and Learning [0.0]
本稿では,このベイズ更新過程を連続力学系として扱う。
クラムラーラオ境界が飽和すると、学習率は単純な1/T$パワーローによって制御されることを示す。
論文 参考訳(メタデータ) (2022-04-19T18:04:36Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - The Gaussian equivalence of generative models for learning with shallow
neural networks [30.47878306277163]
本研究では,事前学習した生成モデルから得られたデータに基づいて学習したニューラルネットワークの性能について検討する。
この等価性を裏付ける厳密で解析的で数値的な証拠を3本提供します。
これらの結果は、現実的なデータを持つ機械学習モデルの理論研究への有効な道を開く。
論文 参考訳(メタデータ) (2020-06-25T21:20:09Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - Mean-Field Approximation to Gaussian-Softmax Integral with Application
to Uncertainty Estimation [23.38076756988258]
ディープニューラルネットワークにおける不確実性を定量化するための,新しい単一モデルに基づくアプローチを提案する。
平均場近似式を用いて解析的に難解な積分を計算する。
実験的に,提案手法は最先端の手法と比較して競合的に機能する。
論文 参考訳(メタデータ) (2020-06-13T07:32:38Z) - What needles do sparse neural networks find in nonlinear haystacks [0.0]
人工ニューラルネットワーク(ANN)におけるスパーシリティ誘導ペナルティは、特にノイズが高く、トレーニングセットが小さい状況において、過度な適合を避ける。
線形モデルの場合、そのようなアプローチは、適切なコセンのペナルティパラメータに対するレギュレーションにおいて高い確率で重要な特徴を確実に回復する。
簡単なモデルを用いてモンテカルロシミュレーションを行い,提案手法の有効性を示した。
論文 参考訳(メタデータ) (2020-06-07T04:46:55Z) - Path Sample-Analytic Gradient Estimators for Stochastic Binary Networks [78.76880041670904]
二進的アクティベーションや二進的重みを持つニューラルネットワークでは、勾配降下によるトレーニングは複雑である。
そこで本研究では,サンプリングと解析近似を併用した新しい推定法を提案する。
勾配推定において高い精度を示し、深部畳み込みモデルにおいてより安定かつ優れた訓練を行うことを示す。
論文 参考訳(メタデータ) (2020-06-04T21:51:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。