論文の概要: Parametrization Cookbook: A set of Bijective Parametrizations for using
Machine Learning methods in Statistical Inference
- arxiv url: http://arxiv.org/abs/2301.08297v1
- Date: Thu, 19 Jan 2023 20:19:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-23 14:16:53.591813
- Title: Parametrization Cookbook: A set of Bijective Parametrizations for using
Machine Learning methods in Statistical Inference
- Title(参考訳): パラメトリゼーションクックブック:統計的推論における機械学習手法を用いた客観的パラメトリゼーションのセット
- Authors: Jean-Benoist Leger
- Abstract要約: 本稿では,制約付き統計的推論問題を非制約型に変換する方法を提案する。
この料理本は、制約された問題を制約のないものに変換するために使用するレシピのセットを提示する。
パラメトリゼーションを簡単に利用するために、本論文はクックブックとPythonパッケージを同時に使用し、numpyでパラメトリゼーションを使用できるが、JAXやPyTorchも利用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present in this paper a way to transform a constrained statistical
inference problem into an unconstrained one in order to be able to use modern
computational methods, such as those based on automatic differentiation, GPU
computing, stochastic gradients with mini-batch.
Unlike the parametrizations classically used in Machine Learning, the
parametrizations introduced here are all bijective and are even
diffeomorphisms, thus allowing to keep the important properties from a
statistical inference point of view, first of all identifiability.
This cookbook presents a set of recipes to use to transform a constrained
problem into a unconstrained one.
For an easy use of parametrizations, this paper is at the same time a
cookbook, and a Python package allowing the use of parametrizations with numpy,
but also JAX and PyTorch, as well as a high level and expressive interface
allowing to easily describe a parametrization to transform a difficult problem
of statistical inference into an easier problem addressable with modern
optimization tools.
- Abstract(参考訳): 本稿では,制約付き統計的推論問題を制約のないものに変換して,自動微分やGPU計算,確率勾配などの現代的な計算手法をミニバッチで利用できる方法を提案する。
機械学習で古典的に使われているパラメトリゼーションとは異なり、ここで導入されたパラメトリゼーションは全単射であり、微分同相性(diffeomorphisms)でもある。
この料理本は、制約された問題を制約のないものに変換するために使用するレシピのセットを提供する。
パラメトリゼーションの容易な利用のために,本論文は,クックブックとPythonパッケージを同時に使用して,numpyでパラメトリゼーションを使用できるだけでなく,JAXやPyTorchも利用できるとともに,パラメトリゼーションの表現が容易で,統計的推論の難しい問題を,現代的な最適化ツールで対処可能な,より簡単な問題に変換することができる。
関連論文リスト
- Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - Instance-Specific Asymmetric Sensitivity in Differential Privacy [2.855485723554975]
我々は指数的メカニズムを通して出力を選択するためのパラダイムを提供する以前の作業の上に構築する。
我々のフレームワークは、近接度メートル法をわずかに修正し、スパースベクトル技法の単純かつ効率的な応用を提供する。
論文 参考訳(メタデータ) (2023-11-02T05:01:45Z) - Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - A Framework for Fast and Stable Representations of Multiparameter
Persistent Homology Decompositions [2.76240219662896]
本稿では,複数パラメータの持続的ホモロジーのエム分解における最近の結果を活用する,新しい汎用表現フレームワークを提案する。
我々は,この枠組みの下で理論安定性の保証と,実用的な計算のための効率的なアルゴリズムを確立する。
いくつかの実データに対して,統計的収束,予測精度,高速実行時間を示す数値実験により,安定性とアルゴリズムの検証を行った。
論文 参考訳(メタデータ) (2023-06-19T21:28:53Z) - Test Set Sizing Via Random Matrix Theory [91.3755431537592]
本稿ではランダム行列理論の手法を用いて、単純な線形回帰に対して理想的なトレーニング-テストデータ分割を求める。
それは「理想」を整合性計量を満たすものとして定義し、すなわち経験的モデル誤差は実際の測定ノイズである。
本論文は,任意のモデルのトレーニングとテストサイズを,真に最適な方法で解決した最初の論文である。
論文 参考訳(メタデータ) (2021-12-11T13:18:33Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Optimizing generalization on the train set: a novel gradient-based
framework to train parameters and hyperparameters simultaneously [0.0]
一般化は機械学習における中心的な問題である。
本稿では,新たなリスク尺度に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T18:04:36Z) - Resampling with neural networks for stochastic parameterization in
multiscale systems [0.0]
本研究では,完全に解決されたシミュレーションから観測データや参照データの条件再サンプリングを行う機械学習手法を提案する。
これは、マクロ変数を条件とした参照データのサブセットの確率的分類に基づいている。
我々は,2つのパラメータ設定を用いて,Lorenz 96システムに対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-03T10:09:18Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。