論文の概要: Survival regression with accelerated failure time model in XGBoost
- arxiv url: http://arxiv.org/abs/2006.04920v3
- Date: Sat, 21 Aug 2021 05:14:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 01:08:59.994539
- Title: Survival regression with accelerated failure time model in XGBoost
- Title(参考訳): xgboostにおける障害時間モデルによる生存回帰
- Authors: Avinash Barnwal, Hyunsu Cho, Toby Dylan Hocking
- Abstract要約: サバイバル回帰は、時間から時間までの変数と特徴変数の関係を推定するために用いられる。
XGBoostは、高速化された障害時間モデルを学習するための損失関数を実装している。
- 参考スコア(独自算出の注目度): 1.5469452301122177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Survival regression is used to estimate the relation between time-to-event
and feature variables, and is important in application domains such as
medicine, marketing, risk management and sales management. Nonlinear tree based
machine learning algorithms as implemented in libraries such as XGBoost,
scikit-learn, LightGBM, and CatBoost are often more accurate in practice than
linear models. However, existing state-of-the-art implementations of tree-based
models have offered limited support for survival regression. In this work, we
implement loss functions for learning accelerated failure time (AFT) models in
XGBoost, to increase the support for survival modeling for different kinds of
label censoring. We demonstrate with real and simulated experiments the
effectiveness of AFT in XGBoost with respect to a number of baselines, in two
respects: generalization performance and training speed. Furthermore, we take
advantage of the support for NVIDIA GPUs in XGBoost to achieve substantial
speedup over multi-core CPUs. To our knowledge, our work is the first
implementation of AFT that utilizes the processing power of NVIDIA GPUs.
Starting from the 1.2.0 release, the XGBoost package natively supports the AFT
model. The addition of AFT in XGBoost has had significant impact in the open
source community, and a few statistics packages now utilize the XGBoost AFT
model.
- Abstract(参考訳): サバイバルレグレッションはイベント時間と機能変数の関係を推定するために使用され、医療、マーケティング、リスク管理、セールス管理といったアプリケーションドメインにおいて重要である。
xgboost、scikit-learn、lightgbm、catboostなどのライブラリに実装された非線形木ベースの機械学習アルゴリズムは、線形モデルよりも正確であることが多い。
しかし、既存のツリーベースモデルの最先端実装は、生き残り回帰を限定的にサポートしている。
本研究では,xgboostにおけるアクセラレーション障害時間(aft)モデル学習のための損失関数を実装し,異なる種類のラベル検閲に対するサバイバルモデルのサポートを強化する。
我々は,XGBoostにおけるAFTの有効性を,一般化性能とトレーニング速度の2点において実かつシミュレートされた実験で実証した。
さらに,XGBoostにおけるNVIDIA GPUのサポートを活用し,マルチコアCPU上での大幅な高速化を実現している。
我々の知る限り、我々の研究はNVIDIA GPUの処理能力を利用するAFTの最初の実装である。
1.2.0のリリースから、XGBoostパッケージはAFTモデルをネイティブにサポートした。
XGBoostにAFTを追加したことで、オープンソースコミュニティに大きな影響を与え、いくつかの統計パッケージがXGBoost AFTモデルを使用している。
関連論文リスト
- GFT: Graph Foundation Model with Transferable Tree Vocabulary [52.17804507458509]
本稿では,木語彙を伝達可能なグラフファウンデーションモデルとして,GFTと命名されたクロスタスク・クロスドメイングラフ基盤モデルを提案する。
変換可能な語彙内で計算木をトークンとして扱うことにより、GFTはモデルの一般化を改善し、負の転送のリスクを低減する。
理論解析と広範な実験的研究により,グラフ学習におけるGFTの有効性が実証され,様々なタスクや領域にまたがるGFTの有効性が示された。
論文 参考訳(メタデータ) (2024-11-09T05:14:30Z) - Very fast Bayesian Additive Regression Trees on GPU [0.0]
単一のCPUコアと比較して最大200倍高速なGPU対応のBARTを実装し、XGBoostで実行時にBARTと競合する。
この実装はPythonパッケージのbartzで利用できる。
論文 参考訳(メタデータ) (2024-10-30T17:29:03Z) - Optimizing Foundation Model Inference on a Many-tiny-core Open-source RISC-V Platform [13.326025546527784]
本稿では,オープンソースのマルチティニーコアRISC-Vプラットフォーム上で,トランスフォーマーモデルの最初のエンドツーエンド推論結果を示す。
エンコーダのみのモデルでは、最も最適化された実装とベースラインバージョンの間の最大12.8倍のスピードアップを示す。
デコーダのみのトポロジでは、非自己回帰(NAR)モードで16.1倍、オート回帰(AR)モードで最大35.6倍のスピードアップを達成する。
論文 参考訳(メタデータ) (2024-05-29T17:16:59Z) - Enabling High-Sparsity Foundational Llama Models with Efficient Pretraining and Deployment [56.44025052765861]
大規模言語モデル(LLM)は自然言語処理(NLP)に革命をもたらしたが、そのサイズは計算のボトルネックを生み出している。
そこで本研究では,高性能LLMの高精度かつ疎結合な基本バージョンを作成するための新しいアプローチを提案する。
スパース量子化LLaMAの最大8.6倍のCPU上での総高速化を示す。
論文 参考訳(メタデータ) (2024-05-06T16:03:32Z) - NeuraChip: Accelerating GNN Computations with a Hash-based Decoupled Spatial Accelerator [3.926150707772004]
我々はGustavsonのアルゴリズムに基づく新しいGNN空間加速器であるNeuraChipを紹介する。
NeuraChipはスパース行列乗算における乗算と加算計算を分離する。
我々はまた、包括的なパフォーマンス解析のためのオープンソース、サイクル精度、マルチスレッドモジュールシミュレータであるNeuraSimを提示する。
論文 参考訳(メタデータ) (2024-04-23T20:51:09Z) - AI and Memory Wall [81.06494558184049]
メモリ帯域幅がデコーダモデルの主要なボトルネックとなることを示す。
私たちは、このメモリ制限を克服するためのモデルアーキテクチャ、トレーニング、デプロイメント戦略の再設計を主張します。
論文 参考訳(メタデータ) (2024-03-21T04:31:59Z) - XGen-7B Technical Report [138.71625147048377]
XGenは、最大1.5Tトークンに対して最大8Kのシーケンス長を持つ7Bパラメータの一連のモデルである。
研究の進歩と商用アプリケーションのためのモデルをオープンソースにしています。
論文 参考訳(メタデータ) (2023-09-07T02:20:03Z) - Quantile Extreme Gradient Boosting for Uncertainty Quantification [1.7685947618629572]
Extreme Gradient Boosting (XGBoost)は、最も人気のある機械学習(ML)手法の1つである。
本稿では,不確実性(QXGBoost)を推定する目的関数として,修正量子回帰を用いたXGBoostの拡張を提案する。
提案手法は, 正規および量子的光勾配向上のために生成した不確実性推定値と同等あるいは優れた性能を示した。
論文 参考訳(メタデータ) (2023-04-23T19:46:19Z) - FlexGen: High-Throughput Generative Inference of Large Language Models
with a Single GPU [89.2451963569343]
FlexGenは、単一のコモディティGPU上で大きな言語モデル(LLM)推論を実行するための世代エンジンである。
1つの16GB GPU上でOPT-175Bを実行する場合、FlexGenは最先端のオフロードシステムに比べてスループットが大幅に向上する。
HELMベンチマークでは、FlexGenは7つの代表サブシナリオに16GBのGPUで30Bモデルを21時間でベンチマークすることができる。
論文 参考訳(メタデータ) (2023-03-13T05:19:28Z) - Multi-Target XGBoostLSS Regression [91.3755431537592]
本稿では,複数の目標とその依存関係を確率論的回帰設定でモデル化するXGBoostLSSの拡張について述べる。
提案手法は,既存のGBMよりも実行時の方が優れており,精度も良好に比較できる。
論文 参考訳(メタデータ) (2022-10-13T08:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。