論文の概要: Machine Learning using Stata/Python
- arxiv url: http://arxiv.org/abs/2103.03122v1
- Date: Wed, 3 Mar 2021 10:31:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 14:42:16.530106
- Title: Machine Learning using Stata/Python
- Title(参考訳): Stata/Pythonを用いた機械学習
- Authors: Giovanni Cerulli
- Abstract要約: 本稿では,一般的な機械学習(ML)手法に適合する2つのスタタモジュール,r_ml_stataとc_ml_stataを提案する。
R_ml_stataとc_ml_stataはPython Scikit-learn APIを使用して、クロスバリデーションと結果/ラベル予測の両方を実行する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present two related Stata modules, r_ml_stata and c_ml_stata, for fitting
popular Machine Learning (ML) methods both in regression and classification
settings. Using the recent Stata/Python integration platform (sfi) of Stata 16,
these commands provide hyper-parameters' optimal tuning via K-fold
cross-validation using greed search. More specifically, they make use of the
Python Scikit-learn API to carry out both cross-validation and outcome/label
prediction.
- Abstract(参考訳): 本稿では、回帰と分類の両方で一般的な機械学習(ML)手法を適合させるために、関連する2つの Stata モジュール r_ml_stata と c_ml_stata を提案する。
stata 16 の stata/python 統合プラットフォーム (sfi) を使用して、これらのコマンドは greed search を用いた k-fold cross-validation によるハイパーパラメータの最適なチューニングを提供する。
具体的には、Python Scikit-learn APIを使用して、クロスバリデーションと結果/ラベル予測の両方を実行する。
関連論文リスト
- TorchCP: A Library for Conformal Prediction based on PyTorch [9.295285907724672]
TorchCPは、ディープラーニングモデルに関する共形予測研究のためのPythonツールボックスである。
ポストホックの様々な実装と、分類および回帰タスクの訓練方法を含んでいる。
論文 参考訳(メタデータ) (2024-02-20T03:14:47Z) - LCE: An Augmented Combination of Bagging and Boosting in Python [45.65284933207566]
lcensembleはハイパフォーマンスでスケーラブルでユーザフレンドリなPythonパッケージで、分類と回帰の一般的なタスクのためのものだ。
Local Cascade Ensemble (LCE)は、現在の最先端手法であるRandom ForestとXGBoostの予測性能をさらに向上する機械学習手法である。
論文 参考訳(メタデータ) (2023-08-14T16:34:47Z) - pystacked: Stacking generalization and machine learning in Stata [0.0]
pystackedはPythonのScikit-learを通じてスタック化された一般化を実装している。
Stackingは複数の教師付き機械学習者をひとつの学習者に結合する。
pystackedは、Scikit-Lernの機械学習アルゴリズムのための使いやすいAPIを提供する。
論文 参考訳(メタデータ) (2022-08-23T12:03:04Z) - MAPIE: an open-source library for distribution-free uncertainty
quantification [0.0]
機械学習モデルの不確実性を定量化する,オープンソースのPythonライブラリであるMAPIEを紹介する。
MAPIEは構造的予測手法を実装しており、不確実性を容易に計算することができる。
scikit-learn-contribでホストされており、完全に「scikit-learn-compatible」である。
論文 参考訳(メタデータ) (2022-07-25T15:44:19Z) - Stochastic Gradient Descent without Full Data Shuffle [65.97105896033815]
CorgiPileは階層的なデータシャッフル戦略で、完全なデータシャッフルを回避すると同時に、完全なシャッフルを実行したかのようにSGDの収束率を同等に維持する。
以上の結果から,CorgiPileは深層学習モデルと一般化線形モデルの両方において,全シャッフルベースSGDと同等の収束率を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-06-12T20:04:31Z) - DADApy: Distance-based Analysis of DAta-manifolds in Python [51.37841707191944]
DADApyは、高次元データの分析と特徴付けのためのピソンソフトウェアパッケージである。
固有次元と確率密度を推定し、密度に基づくクラスタリングを行い、異なる距離メトリクスを比較する方法を提供する。
論文 参考訳(メタデータ) (2022-05-04T08:41:59Z) - PyHHMM: A Python Library for Heterogeneous Hidden Markov Models [63.01207205641885]
PyHHMM は Heterogeneous-Hidden Markov Models (HHMM) のオブジェクト指向Python実装である。
PyHHMMは、異種観測モデル、データ推論の欠如、異なるモデルの順序選択基準、半教師付きトレーニングなど、同様のフレームワークではサポートされない機能を強調している。
PyHHMMは、numpy、scipy、scikit-learn、およびシーボーンPythonパッケージに依存しており、Apache-2.0ライセンスの下で配布されている。
論文 参考訳(メタデータ) (2022-01-12T07:32:36Z) - DoubleML -- An Object-Oriented Implementation of Double Machine Learning
in Python [1.4911092205861822]
DoubleMLはオープンソースのPythonライブラリで、Chernozhukovらのダブル機械学習フレームワークを実装している。
パラメータの推定が機械学習手法に基づく場合、因果パラメータの統計的推測に有効な機能を含む。
このパッケージはMITライセンスで配布されており、科学的なPythonエコシステムのコアライブラリに依存している。
論文 参考訳(メタデータ) (2021-04-07T16:16:39Z) - MOGPTK: The Multi-Output Gaussian Process Toolkit [71.08576457371433]
ガウス過程(GP)を用いたマルチチャネルデータモデリングのためのPythonパッケージMOGPTKを提案する。
このツールキットの目的は、研究者、データサイエンティスト、実践者にもMOGP(multi-output GP)モデルを利用できるようにすることである。
論文 参考訳(メタデータ) (2020-02-09T23:34:49Z) - OPFython: A Python-Inspired Optimum-Path Forest Classifier [68.8204255655161]
本稿では,OPFythonと表記されるPythonベースのOptimum-Path Forestフレームワークを提案する。
OPFythonはPythonベースのライブラリなので、C言語よりもフレンドリーな環境とプロトタイピングの作業スペースを提供する。
論文 参考訳(メタデータ) (2020-01-28T15:46:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。