論文の概要: Estimating the time-lapse between medical insurance reimbursement with
non-parametric regression models
- arxiv url: http://arxiv.org/abs/2008.08624v1
- Date: Wed, 19 Aug 2020 18:39:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 08:49:14.198952
- Title: Estimating the time-lapse between medical insurance reimbursement with
non-parametric regression models
- Title(参考訳): 非パラメトリック回帰モデルによる医療保険報酬の時差推定
- Authors: Mary Akinyemi, Chika Yinka-Banjo, Ogban-Asuquo Ugot, Akwarandu Ugo
Nwachuku
- Abstract要約: KNN(K-Nearest Neighbours)、SVM(Support Vector Machines)、決定木(Decision Tree)、ランダム林(Random Forests)の4つの非パラメトリックアルゴリズムの特性を比較検討した。
教師付き学習課題は、医療保険返済の時間経過の回帰推定である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Non-parametric supervised learning algorithms represent a succinct class of
supervised learning algorithms where the learning parameters are highly
flexible and whose values are directly dependent on the size of the training
data. In this paper, we comparatively study the properties of four
nonparametric algorithms, K-Nearest Neighbours (KNNs), Support Vector Machines
(SVMs), Decision trees and Random forests. The supervised learning task is a
regression estimate of the time-lapse in medical insurance reimbursement. Our
study is concerned precisely with how well each of the nonparametric regression
models fits the training data. We quantify the goodness of fit using the
R-squared metric. The results are presented with a focus on the effect of the
size of the training data, the feature space dimension and hyperparameter
optimization.
- Abstract(参考訳): 非パラメトリック教師付き学習アルゴリズムは、学習パラメータが高度に柔軟で、その値がトレーニングデータのサイズに直接依存する教師付き学習アルゴリズムの簡潔クラスを表す。
本稿では, 4つの非パラメトリックアルゴリズム, K-Nearest Neighbours (KNNs), Support Vector Machines (SVMs), Decision Tree, Random Forestsの特性について比較検討する。
教師付き学習課題は、医療保険返済の時間経過の回帰推定である。
本研究は,非パラメトリック回帰モデルがトレーニングデータにどの程度適合するかを正確に検討する。
R-二乗計量を用いて適合の良さを定量化する。
その結果、トレーニングデータのサイズ、特徴空間次元、ハイパーパラメータ最適化の影響に焦点を当てた結果が得られた。
関連論文リスト
- What Do Learning Dynamics Reveal About Generalization in LLM Reasoning? [83.83230167222852]
モデルの一般化動作は,事前記憶列車の精度と呼ばれるトレーニング指標によって効果的に特徴づけられることがわかった。
モデルの学習行動と一般化を結びつけることで、トレーニング戦略に目標とする改善を導くことができる。
論文 参考訳(メタデータ) (2024-11-12T09:52:40Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - On the Convergence of Loss and Uncertainty-based Active Learning Algorithms [3.506897386829711]
本研究では、勾配降下法(SGD)アルゴリズムを用いて機械学習モデルの学習に必要な収束率とデータサンプルサイズについて検討する。
線形分類器と線形分離可能なデータセットに対する2乗ヒンジ損失と類似のトレーニング損失関数を用いた収束結果を提案する。
論文 参考訳(メタデータ) (2023-12-21T15:22:07Z) - Target Variable Engineering [0.0]
数値的対象を予測するために訓練された回帰モデルの予測性能と、2項化対象を予測するために訓練された分類器を比較した。
回帰は最適性能に収束するためには、はるかに多くの計算作業を必要とする。
論文 参考訳(メタデータ) (2023-10-13T23:12:21Z) - Stabilizing Subject Transfer in EEG Classification with Divergence
Estimation [17.924276728038304]
脳波分類タスクを記述するためのグラフィカルモデルをいくつか提案する。
理想的な訓練シナリオにおいて真であるべき統計的関係を同定する。
我々は、これらの関係を2段階で強制する正規化罰則を設計する。
論文 参考訳(メタデータ) (2023-10-12T23:06:52Z) - Information bottleneck theory of high-dimensional regression: relevancy,
efficiency and optimality [6.700873164609009]
オーバーフィッティングは機械学習における中心的な課題であるが、多くの大きなニューラルネットワークは容易にトレーニング損失をゼロにする。
トレーニングデータのノイズを符号化する適合モデルのビットとして定義される残差情報による過度適合の定量化を行う。
論文 参考訳(メタデータ) (2022-08-08T00:09:12Z) - Data splitting improves statistical performance in overparametrized
regimes [0.0]
分散学習は、複数のコンピューティングデバイスを活用することで、全体的なトレーニング時間を短縮する一般的な戦略である。
この状態において、データの分割は正規化効果があり、統計性能と計算複雑性が向上することを示す。
論文 参考訳(メタデータ) (2021-10-21T08:10:56Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Predicting Training Time Without Training [120.92623395389255]
我々は、事前訓練された深層ネットワークが損失関数の所定の値に収束する必要がある最適化ステップの数を予測する問題に取り組む。
我々は、微調整中の深部ネットワークのトレーニングダイナミクスが線形化モデルによってよく近似されているという事実を活用する。
トレーニングをする必要なく、特定の損失にモデルを微調整するのに要する時間を予測できます。
論文 参考訳(メタデータ) (2020-08-28T04:29:54Z) - Machine learning for causal inference: on the use of cross-fit
estimators [77.34726150561087]
より優れた統計特性を得るために、二重ローバストなクロスフィット推定器が提案されている。
平均因果効果(ACE)に対する複数の推定器の性能評価のためのシミュレーション研究を行った。
機械学習で使用する場合、二重確率のクロスフィット推定器は、バイアス、分散、信頼区間のカバレッジで他のすべての推定器よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-04-21T23:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。