論文の概要: Survival Kernets: Scalable and Interpretable Deep Kernel Survival
Analysis with an Accuracy Guarantee
- arxiv url: http://arxiv.org/abs/2206.10477v1
- Date: Tue, 21 Jun 2022 15:42:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 14:21:50.848454
- Title: Survival Kernets: Scalable and Interpretable Deep Kernel Survival
Analysis with an Accuracy Guarantee
- Title(参考訳): Survival Kernets: 精度保証によるスケーラブルで解釈可能なDeep Kernel Survival Analysis
- Authors: George H. Chen
- Abstract要約: サバイバル分析モデルは、カーネル関数の助けを借りて、個々のサバイバル分布を推定する。
我々は、サバイバルカーネットと呼ばれる、大規模なデータセットにスケールする新しいディープカーネルサバイバルモデルを提案する。
- 参考スコア(独自算出の注目度): 8.75682288556859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kernel survival analysis models estimate individual survival distributions
with the help of a kernel function, which measures the similarity between any
two data points. Such a kernel function can be learned using deep kernel
survival models. In this paper, we present a new deep kernel survival model
called a survival kernet, which scales to large datasets in a manner that is
amenable to model interpretation and also theoretical analysis. Specifically,
the training data are partitioned into clusters based on a recently developed
training set compression scheme for classification and regression called kernel
netting that we extend to the survival analysis setting. At test-time, each
data point is represented as a weighted combination of these clusters, and each
such cluster can be visualized. For a special case of survival kernets, we
establish a finite-sample error bound on predicted survival distributions that
is, up to a log factor, optimal. Whereas scalability at test time is achieved
using the aforementioned kernel netting compression strategy, scalability
during training is achieved by a warm-start procedure based on tree ensembles
such as XGBoost and a heuristic approach to accelerating neural architecture
search. On three standard survival analysis datasets of varying sizes (up to
roughly 3 million data points), we show that survival kernets are highly
competitive with the best of baselines tested in terms of concordance index.
Our code is available at: https://github.com/georgehc/survival-kernets
- Abstract(参考訳): カーネルサバイバル解析モデルは、2つのデータポイント間の類似度を測定するカーネル関数の助けを借りて、個々のサバイバル分布を推定する。
このようなカーネル関数は、ディープカーネルサバイバルモデルを用いて学習することができる。
本稿では,モデル解釈や理論解析に適した方法で大規模データセットにスケール可能な,サバイバルカーネットと呼ばれる新しいディープカーネルサバイバルモデルを提案する。
具体的には、最近開発されたカーネルネットと呼ばれる分類と回帰のためのトレーニングセット圧縮スキームに基づいて、トレーニングデータをクラスタに分割し、サバイバル分析設定に拡張する。
テスト時に、各データポイントはこれらのクラスタの重み付けされた組み合わせとして表現され、これらのクラスタを可視化することができる。
生存カーネットの特殊な場合、予測生存分布に縛られる有限サンプル誤差を、ログ係数まで最適に設定する。
上記のカーネルネット圧縮戦略を用いてテスト時のスケーラビリティを実現する一方で、トレーニング中のスケーラビリティは、XGBoostのようなツリーアンサンブルに基づくウォームスタート手順と、ニューラルネットワーク探索を加速するためのヒューリスティックアプローチによって達成される。
様々なサイズ(約300万データポイントまで)の標準生存分析データセットにおいて、サバイバル・カーネットは、コンコータンス・インデックスでテストされたベースラインの長所と非常に競合することを示す。
私たちのコードは、https://github.com/georgehc/survival-kernetsで利用可能です。
関連論文リスト
- SurvivalGAN: Generating Time-to-Event Data for Survival Analysis [121.84429525403694]
検閲と時間的地平線の不均衡は、生成モデルに生存分析に特有の3つの新しい障害モードを経験させる。
本稿では,検閲やイベントの地平線における不均衡に対処し,生存データを扱う生成モデルであるSurvivalGANを提案する。
医療データセットに関する広範な実験により,本手法の評価を行った。
論文 参考訳(メタデータ) (2023-02-24T17:03:51Z) - Heterogeneous Datasets for Federated Survival Analysis Simulation [6.489759672413373]
本研究では、既存の非フェデレーションデータセットから再現可能な方法で開始することで、現実的な異種データセットを構築する新しい手法を提案する。
具体的には、ディリクレ分布に基づく2つの新しいデータセット分割アルゴリズムを提供し、各データサンプルを慎重に選択したクライアントに割り当てる。
提案手法の実装は,フェデレートされた環境をシミュレートしてサバイバル分析を行うことを推奨し,広く普及している。
論文 参考訳(メタデータ) (2023-01-28T11:37:07Z) - COmic: Convolutional Kernel Networks for Interpretable End-to-End
Learning on (Multi-)Omics Data [1.933681537640272]
我々は、Convolutional Omics Kernel Network(COmic)という、新しいタイプの人工知能ニューラルネットワークを提案する。
畳み込み型カーネルネットワークと経路誘導型カーネルを組み合わせることで,オミクスデータセット上での堅牢かつ解釈可能なエンドツーエンド学習を実現する。
経路誘起ラプラシア核の使用がニューラルネットワークのブラックボックスの性質をいかに開放するかを示す。
論文 参考訳(メタデータ) (2022-12-02T12:54:27Z) - Generative Kernel Continual learning [117.79080100313722]
本稿では、生成モデルとカーネル間の相乗効果を利用して連続学習を行う、生成カーネル連続学習を紹介する。
生成モデルは、カーネル学習のための代表サンプルを生成することができ、カーネル連続学習におけるメモリ依存を取り除くことができる。
コントリビューションの能力とメリットを示すために,広く利用されている3つの連続学習ベンチマークについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-12-26T16:02:10Z) - Kernel Continual Learning [117.79080100313722]
カーネル連続学習は、破滅的な忘れ事に取り組むための、シンプルだが効果的な連続学習の変種である。
エピソードメモリユニットは、カーネルリッジ回帰に基づいてタスク固有の分類器を学ぶために、各タスクのサンプルのサブセットを格納する。
タスク毎にデータ駆動カーネルを学ぶための変動ランダム機能。
論文 参考訳(メタデータ) (2021-07-12T22:09:30Z) - A Deep Variational Approach to Clustering Survival Data [5.871238645229228]
変分深層クラスタリングにおけるクラスタサバイバルデータに対する新しい確率的アプローチを提案する。
提案手法は,説明変数と潜在的に検閲された生存時間の両方の分布を明らかにするために,深い生成モデルを用いている。
論文 参考訳(メタデータ) (2021-06-10T14:10:25Z) - MetaKernel: Learning Variational Random Features with Limited Labels [120.90737681252594]
少数の注釈付きサンプルから学習し、新しいタスクでうまく一般化できるという根本的かつ困難な問題に、少数のショットラーニングが対処します。
マルチショット学習のためのランダムなフーリエ機能を備えたメタラーニングカーネルをMeta Kernelと呼びます。
論文 参考訳(メタデータ) (2021-05-08T21:24:09Z) - Learning Compositional Sparse Gaussian Processes with a Shrinkage Prior [26.52863547394537]
本稿では,カーネル選択のスパーシティをホースシュープリアーで処理することにより,カーネル構成を学習するための新しい確率論的アルゴリズムを提案する。
本モデルは,計算時間を大幅に削減した時系列特性をキャプチャし,実世界のデータセット上での競合回帰性能を有する。
論文 参考訳(メタデータ) (2020-12-21T13:41:15Z) - Deep Kernel Survival Analysis and Subject-Specific Survival Time
Prediction Intervals [8.75682288556859]
カーネルサバイバル分析で使用するカーネル関数を学習する最初のニューラルネットワークフレームワークを提案する。
実験対象に類似した個人に対して統計的に有効である生存時間推定の予測間隔を構築するためにカーネル関数を使用する方法を示す。
論文 参考訳(メタデータ) (2020-07-25T16:55:16Z) - Bayesian Sparse Factor Analysis with Kernelized Observations [67.60224656603823]
多視点問題は潜在変数モデルに直面することができる。
高次元問題と非線形問題は伝統的にカーネルメソッドによって扱われる。
両アプローチを単一モデルにマージすることを提案する。
論文 参考訳(メタデータ) (2020-06-01T14:25:38Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。