論文の概要: Time-to-event regression using partially monotonic neural networks
- arxiv url: http://arxiv.org/abs/2103.14755v1
- Date: Fri, 26 Mar 2021 22:34:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-03 15:47:39.398640
- Title: Time-to-event regression using partially monotonic neural networks
- Title(参考訳): 部分単調ニューラルネットワークを用いた時間-事象回帰
- Authors: David Rindt and Robert Hu and David Steinsaltz and Dino Sejdinovic
- Abstract要約: 時系列分布を学習するために,部分的モノトニックニューラルネットワークを用いたSuMo-netを提案する。
本手法は,真の生存分布を仮定せず,ハザード関数の計算コストのかかる統合を回避する。
- 参考スコア(独自算出の注目度): 9.224121801193935
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel method, termed SuMo-net, that uses partially monotonic
neural networks to learn a time-to-event distribution from a sample of
covariates and right-censored times. SuMo-net models the survival function and
the density jointly, and optimizes the likelihood for right-censored data
instead of the often used partial likelihood. The method does not make
assumptions about the true survival distribution and avoids computationally
expensive integration of the hazard function. We evaluate the performance of
the method on a range of datasets and find competitive performance across
different metrics and improved computational time of making new predictions.
- Abstract(参考訳): 本研究では,部分単調ニューラルネットワークを用いて,共変量と直交時間のサンプルから時系列分布を学習するSuMo-netという新しい手法を提案する。
SuMo-netはサバイバル関数と密度を共同でモデル化し、しばしば使用される部分的可能性ではなく、右チャージされたデータの確率を最適化する。
本手法は,真の生存分布を仮定せず,ハザード関数の計算コストのかかる統合を回避する。
提案手法の性能評価を行い,新しい予測を行う際の計算時間を改善するとともに,様々な指標にまたがる競合性能について検討した。
関連論文リスト
- Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - Variational Deep Survival Machines: Survival Regression with Censored Outcomes [11.82370259688716]
サバイバル・レグレッション(Survival regression)とは、ある出来事がいつ起こるか、通常は死か失敗かを予測することを目的としている。
本稿では,生存データをクラスタリングし,原始分布を組み合わせることで生存時間を予測できる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:16:00Z) - Scalable Dynamic Mixture Model with Full Covariance for Probabilistic
Traffic Forecasting [16.04029885574568]
時間変化誤差過程に対するゼロ平均ガウス分布の動的混合を提案する。
提案手法は,学習すべきパラメータを数つ追加するだけで,既存のディープラーニングフレームワークにシームレスに統合することができる。
提案手法を交通速度予測タスク上で評価し,提案手法がモデル水平線を改良するだけでなく,解釈可能な時間相関構造も提供することを発見した。
論文 参考訳(メタデータ) (2022-12-10T22:50:00Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Conditional Distribution Function Estimation Using Neural Networks for
Censored and Uncensored Data [0.0]
検閲されたデータと検閲されていないデータの両方に対してニューラルネットワークを用いて条件分布関数を推定することを検討する。
本研究では,提案手法が望ましい性能を有することを示す一方で,モデル仮定に違反した場合に偏りのある推定値が得られることを示す。
論文 参考訳(メタデータ) (2022-07-06T01:12:22Z) - Uncertainty Modeling for Out-of-Distribution Generalization [56.957731893992495]
特徴統計を適切に操作することで、ディープラーニングモデルの一般化能力を向上させることができると論じる。
一般的な手法では、特徴統計を学習した特徴から測定された決定論的値とみなすことが多い。
我々は、学習中に合成された特徴統計を用いて、領域シフトの不確かさをモデル化することにより、ネットワークの一般化能力を向上させる。
論文 参考訳(メタデータ) (2022-02-08T16:09:12Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Remaining Useful Life Estimation Under Uncertainty with Causal GraphNets [0.0]
時系列モデルの構築とトレーニングのための新しいアプローチを提案する。
提案手法は,非定常時系列の予測モデル構築に適している。
論文 参考訳(メタデータ) (2020-11-23T21:28:03Z) - Robust Correction of Sampling Bias Using Cumulative Distribution
Functions [19.551668880584973]
変数ドメインとバイアス付きデータセットは、トレーニングとターゲット分布の違いにつながる可能性がある。
これを緩和するための現在のアプローチは、しばしばトレーニングとターゲット確率密度関数の比率を推定することに依存する。
論文 参考訳(メタデータ) (2020-10-23T22:13:00Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。