論文の概要: Boosted generalized normal distributions: Integrating machine learning with operations knowledge
- arxiv url: http://arxiv.org/abs/2407.19092v2
- Date: Thu, 1 Aug 2024 23:12:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-05 15:40:20.154180
- Title: Boosted generalized normal distributions: Integrating machine learning with operations knowledge
- Title(参考訳): 一般化正規分布の強化--機械学習と演算知識の統合
- Authors: Ragip Gurlek, Francis de Vericourt, Donald K. K. Lee,
- Abstract要約: 医療業務文献から得られた知見を活用すれば,患者待ち時間とサービス時間の分布予測が有意に改善できることが示唆された。
具体的には、$b$GNDは、それぞれ待ち時間とサービス時間を予測するために使用される分散に依存しないMLベンチマークよりも6%と9%パフォーマンスがよい。
- 参考スコア(独自算出の注目度): 0.49157446832511503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Applications of machine learning (ML) techniques to operational settings often face two challenges: i) ML methods mostly provide point predictions whereas many operational problems require distributional information; and ii) They typically do not incorporate the extensive body of knowledge in the operations literature, particularly the theoretical and empirical findings that characterize specific distributions. We introduce a novel and rigorous methodology, the Boosted Generalized Normal Distribution ($b$GND), to address these challenges. The Generalized Normal Distribution (GND) encompasses a wide range of parametric distributions commonly encountered in operations, and $b$GND leverages gradient boosting with tree learners to flexibly estimate the parameters of the GND as functions of covariates. We establish $b$GND's statistical consistency, thereby extending this key property to special cases studied in the ML literature that lacked such guarantees. Using data from a large academic emergency department in the United States, we show that the distributional forecasting of patient wait and service times can be meaningfully improved by leveraging findings from the healthcare operations literature. Specifically, $b$GND performs 6% and 9% better than the distribution-agnostic ML benchmark used to forecast wait and service times respectively. Further analysis suggests that these improvements translate into a 9% increase in patient satisfaction and a 4% reduction in mortality for myocardial infarction patients. Our work underscores the importance of integrating ML with operations knowledge to enhance distributional forecasts.
- Abstract(参考訳): 機械学習(ML)技術の運用環境への適用は、しばしば2つの課題に直面します。
一 主に点予測を行うML手法であって、多くの運用上の問題には分布情報が必要であること。
二 通常、業務文献、特に特定の分布を特徴づける理論的及び実証的な知見に広範な知識を取り入れない。
本稿では,これらの課題に対処するため,新しい厳密な方法論であるBoosted Generalized Normal Distribution(GND)を紹介する。
一般正規分布(GND)は、操作でよく見られる幅広いパラメトリック分布を包含し、$b$GNDは、木学習者による勾配上昇を利用して、GNDのパラメータを共変量の関数として柔軟に推定する。
我々は、$b$GNDの統計的整合性を確立し、そのような保証を欠いたML文献で研究された特別な事例にこの鍵特性を拡張した。
米国における大規模大学救急部門のデータを用いて,患者の待ち時間とサービス時間の分布予測は,医療活動文献の知見を活用すれば有意に改善できることを示す。
具体的には、$b$GNDは、それぞれ待ち時間とサービス時間を予測するために使用される分散に依存しないMLベンチマークよりも6%と9%パフォーマンスがよい。
さらに分析したところ、これらの改善は患者の満足度を9%増加させ、心筋梗塞患者の死亡率を4%低下させることが示唆された。
本研究は,MLを運用知識と統合し,分散予測を強化することの重要性を浮き彫りにする。
関連論文リスト
- Using Large Language Models for Expert Prior Elicitation in Predictive Modelling [53.54623137152208]
本研究では,大規模言語モデル (LLM) を用いて予測モデルの事前分布を推定する手法を提案する。
本研究では,LLMがパラメータ分布を真に生成するかどうかを評価するとともに,文脈内学習と事前推論のためのモデル選択戦略を提案する。
その結果,LLMによる事前パラメータ分布は,低データ設定における非形式的先行よりも予測誤差を著しく低減することがわかった。
論文 参考訳(メタデータ) (2024-11-26T10:13:39Z) - Learn from Downstream and Be Yourself in Multimodal Large Language Model Fine-Tuning [104.27224674122313]
微調整MLLMは、特定の下流タスクのパフォーマンスを改善するための一般的なプラクティスとなっている。
一般化と特殊化のトレードオフのバランスをとるために,事前学習と微調整の両方におけるパラメータの重要度を測定することを提案する。
論文 参考訳(メタデータ) (2024-11-17T01:16:37Z) - Stability and Generalization for Distributed SGDA [70.97400503482353]
分散SGDAのための安定性に基づく一般化分析フレームワークを提案する。
我々は, 安定性の誤差, 一般化ギャップ, 人口リスクの包括的分析を行う。
理論的結果から,一般化ギャップと最適化誤差のトレードオフが明らかになった。
論文 参考訳(メタデータ) (2024-11-14T11:16:32Z) - Probabilistic Attention based on Gaussian Processes for Deep Multiple
Instance Learning [12.594098548008832]
本稿では,深いMILのためのガウス過程に基づく新しい確率的注意機構であるアテンションガウス過程(AGP)モデルを紹介する。
AGPは正確なバッグレベルの予測とインスタンスレベルの説明可能性を提供し、エンドツーエンドでトレーニングすることができる。
予測の不確実性は誤った予測のリスクと相関していることを実験的に示す。
論文 参考訳(メタデータ) (2023-02-08T13:58:11Z) - Provable Generalization of Overparameterized Meta-learning Trained with
SGD [62.892930625034374]
我々は、広く使われているメタラーニング手法、モデル非依存メタラーニング(MAML)の一般化について研究する。
我々は、MAMLの過大なリスクに対して、上界と下界の両方を提供し、SGDダイナミクスがこれらの一般化境界にどのように影響するかをキャプチャする。
理論的知見は実験によってさらに検証される。
論文 参考訳(メタデータ) (2022-06-18T07:22:57Z) - Characterizing and Understanding the Generalization Error of Transfer
Learning with Gibbs Algorithm [10.851348154870854]
本稿では,ギブスに基づく移動学習アルゴリズムの一般化能力に関する情報理論解析を行う。
本稿では,2段階のトランスファー学習アプローチである$alpha$-weightedERMと2段階ERMに着目した。
論文 参考訳(メタデータ) (2021-11-02T14:49:48Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z) - On the Generalization of Stochastic Gradient Descent with Momentum [58.900860437254885]
まず,アルゴリズムの安定性が一般化保証の確立に失敗する凸損失関数が存在することを示す。
滑らかなリプシッツ損失関数に対して、修正モーメントに基づく更新規則を解析し、一般化誤差の上界を認めることを示す。
強凸損失関数の特別な場合において、標準 SGDM の複数のエポックが SGDEM の特別な形式として一般化されるような運動量の範囲を見出す。
論文 参考訳(メタデータ) (2021-02-26T18:58:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。