論文の概要: Survival Kernets: Scalable and Interpretable Deep Kernel Survival
Analysis with an Accuracy Guarantee
- arxiv url: http://arxiv.org/abs/2206.10477v4
- Date: Sun, 9 Jul 2023 05:37:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 19:22:58.647490
- Title: Survival Kernets: Scalable and Interpretable Deep Kernel Survival
Analysis with an Accuracy Guarantee
- Title(参考訳): Survival Kernets: 精度保証によるスケーラブルで解釈可能なDeep Kernel Survival Analysis
- Authors: George H. Chen
- Abstract要約: 本稿では、サバイバルカーネットと呼ばれる新しいディープカーネルサバイバルモデルを提案する。
解釈や理論解析のモデル化が可能な方法で、大規模なデータセットにスケールする。
- 参考スコア(独自算出の注目度): 8.75682288556859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kernel survival analysis models estimate individual survival distributions
with the help of a kernel function, which measures the similarity between any
two data points. Such a kernel function can be learned using deep kernel
survival models. In this paper, we present a new deep kernel survival model
called a survival kernet, which scales to large datasets in a manner that is
amenable to model interpretation and also theoretical analysis. Specifically,
the training data are partitioned into clusters based on a recently developed
training set compression scheme for classification and regression called kernel
netting that we extend to the survival analysis setting. At test time, each
data point is represented as a weighted combination of these clusters, and each
such cluster can be visualized. For a special case of survival kernets, we
establish a finite-sample error bound on predicted survival distributions that
is, up to a log factor, optimal. Whereas scalability at test time is achieved
using the aforementioned kernel netting compression strategy, scalability
during training is achieved by a warm-start procedure based on tree ensembles
such as XGBoost and a heuristic approach to accelerating neural architecture
search. On four standard survival analysis datasets of varying sizes (up to
roughly 3 million data points), we show that survival kernets are highly
competitive compared to various baselines tested in terms of time-dependent
concordance index. Our code is available at:
https://github.com/georgehc/survival-kernets
- Abstract(参考訳): カーネルサバイバル解析モデルは、2つのデータポイント間の類似度を測定するカーネル関数の助けを借りて、個々のサバイバル分布を推定する。
このようなカーネル関数は、ディープカーネルサバイバルモデルを用いて学習することができる。
本稿では,モデル解釈や理論解析に適した方法で大規模データセットにスケール可能な,サバイバルカーネットと呼ばれる新しいディープカーネルサバイバルモデルを提案する。
具体的には、最近開発されたカーネルネットと呼ばれる分類と回帰のためのトレーニングセット圧縮スキームに基づいて、トレーニングデータをクラスタに分割し、サバイバル分析設定に拡張する。
テスト時には、各データポイントをこれらのクラスタの重み付けの組み合わせとして表現し、それぞれのクラスタを可視化することができる。
生存カーネットの特殊な場合、予測生存分布に縛られる有限サンプル誤差を、ログ係数まで最適に設定する。
上記のカーネルネット圧縮戦略を用いてテスト時のスケーラビリティを実現する一方で、トレーニング中のスケーラビリティは、XGBoostのようなツリーアンサンブルに基づくウォームスタート手順と、ニューラルネットワーク探索を加速するためのヒューリスティックアプローチによって達成される。
異なるサイズ(約300万データポイントまで)の標準生存分析データセットでは、時間依存コンコーダンス指数で検証された各種ベースラインと比較して、生存カーネットは高い競争力を示す。
私たちのコードは、https://github.com/georgehc/survival-kernetsで利用可能です。
関連論文リスト
- Deep End-to-End Survival Analysis with Temporal Consistency [49.77103348208835]
本稿では,大規模長手データの処理を効率的に行うために,Survival Analysisアルゴリズムを提案する。
我々の手法における中心的な考え方は、時間とともにデータにおける過去と将来の成果が円滑に進化するという仮説である時間的一貫性である。
我々のフレームワークは、安定したトレーニング信号を提供することで、時間的一貫性を大きなデータセットに独自に組み込む。
論文 参考訳(メタデータ) (2024-10-09T11:37:09Z) - Clustering Survival Data using a Mixture of Non-parametric Experts [0.0]
本研究では,クラスタリングと生存関数予測を統合した生存解析アルゴリズムであるSurvMixClustを紹介する。
5つの公開データセットで評価したところ、SurvMixClustは、異なる生存曲線を持つバランスの取れたクラスタを生成し、クラスタリングベースラインを上回り、予測精度で非クラスタリングサバイバルモデルと競合することがわかった。
論文 参考訳(メタデータ) (2024-05-24T20:47:58Z) - Variational Deep Survival Machines: Survival Regression with Censored Outcomes [11.82370259688716]
サバイバル・レグレッション(Survival regression)とは、ある出来事がいつ起こるか、通常は死か失敗かを予測することを目的としている。
本稿では,生存データをクラスタリングし,原始分布を組み合わせることで生存時間を予測できる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:16:00Z) - SurvivalGAN: Generating Time-to-Event Data for Survival Analysis [121.84429525403694]
検閲と時間的地平線の不均衡は、生成モデルに生存分析に特有の3つの新しい障害モードを経験させる。
本稿では,検閲やイベントの地平線における不均衡に対処し,生存データを扱う生成モデルであるSurvivalGANを提案する。
医療データセットに関する広範な実験により,本手法の評価を行った。
論文 参考訳(メタデータ) (2023-02-24T17:03:51Z) - Kernel Continual Learning [117.79080100313722]
カーネル連続学習は、破滅的な忘れ事に取り組むための、シンプルだが効果的な連続学習の変種である。
エピソードメモリユニットは、カーネルリッジ回帰に基づいてタスク固有の分類器を学ぶために、各タスクのサンプルのサブセットを格納する。
タスク毎にデータ駆動カーネルを学ぶための変動ランダム機能。
論文 参考訳(メタデータ) (2021-07-12T22:09:30Z) - A Deep Variational Approach to Clustering Survival Data [5.871238645229228]
変分深層クラスタリングにおけるクラスタサバイバルデータに対する新しい確率的アプローチを提案する。
提案手法は,説明変数と潜在的に検閲された生存時間の両方の分布を明らかにするために,深い生成モデルを用いている。
論文 参考訳(メタデータ) (2021-06-10T14:10:25Z) - MetaKernel: Learning Variational Random Features with Limited Labels [120.90737681252594]
少数の注釈付きサンプルから学習し、新しいタスクでうまく一般化できるという根本的かつ困難な問題に、少数のショットラーニングが対処します。
マルチショット学習のためのランダムなフーリエ機能を備えたメタラーニングカーネルをMeta Kernelと呼びます。
論文 参考訳(メタデータ) (2021-05-08T21:24:09Z) - Learning Compositional Sparse Gaussian Processes with a Shrinkage Prior [26.52863547394537]
本稿では,カーネル選択のスパーシティをホースシュープリアーで処理することにより,カーネル構成を学習するための新しい確率論的アルゴリズムを提案する。
本モデルは,計算時間を大幅に削減した時系列特性をキャプチャし,実世界のデータセット上での競合回帰性能を有する。
論文 参考訳(メタデータ) (2020-12-21T13:41:15Z) - Deep Kernel Survival Analysis and Subject-Specific Survival Time
Prediction Intervals [8.75682288556859]
カーネルサバイバル分析で使用するカーネル関数を学習する最初のニューラルネットワークフレームワークを提案する。
実験対象に類似した個人に対して統計的に有効である生存時間推定の予測間隔を構築するためにカーネル関数を使用する方法を示す。
論文 参考訳(メタデータ) (2020-07-25T16:55:16Z) - Bayesian Sparse Factor Analysis with Kernelized Observations [67.60224656603823]
多視点問題は潜在変数モデルに直面することができる。
高次元問題と非線形問題は伝統的にカーネルメソッドによって扱われる。
両アプローチを単一モデルにマージすることを提案する。
論文 参考訳(メタデータ) (2020-06-01T14:25:38Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。