論文の概要: Deep Neural Network Based Accelerated Failure Time Models using Rank
Loss
- arxiv url: http://arxiv.org/abs/2206.05974v1
- Date: Mon, 13 Jun 2022 08:38:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 23:47:38.705229
- Title: Deep Neural Network Based Accelerated Failure Time Models using Rank
Loss
- Title(参考訳): ランク損失を用いたディープニューラルネットワークによる高速化故障時間モデル
- Authors: Gwangsu Kim and Sangwook Kang
- Abstract要約: 加速故障時間(AFT)モデルは、障害時間と一連の共変量の間の対数線関係を仮定する。
ディープニューラルネットワーク(DNN)は過去数十年にわたって注目され、様々な分野で大きな成功を収めてきた。
本稿では,Gehan型損失モデルとサブサンプリング手法を組み合わせることで,AFTモデルにDNNを適用することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An accelerated failure time (AFT) model assumes a log-linear relationship
between failure times and a set of covariates. In contrast to other popular
survival models that work on hazard functions, the effects of covariates are
directly on failure times, whose interpretation is intuitive. The
semiparametric AFT model that does not specify the error distribution is
flexible and robust to departures from the distributional assumption. Owing to
the desirable features, this class of models has been considered as a promising
alternative to the popular Cox model in the analysis of censored failure time
data. However, in these AFT models, a linear predictor for the mean is
typically assumed. Little research has addressed the nonlinearity of predictors
when modeling the mean. Deep neural networks (DNNs) have received a focal
attention over the past decades and have achieved remarkable success in a
variety of fields. DNNs have a number of notable advantages and have been shown
to be particularly useful in addressing the nonlinearity. By taking advantage
of this, we propose to apply DNNs in fitting AFT models using a Gehan-type
loss, combined with a sub-sampling technique. Finite sample properties of the
proposed DNN and rank based AFT model (DeepR-AFT) are investigated via an
extensive stimulation study. DeepR-AFT shows a superior performance over its
parametric or semiparametric counterparts when the predictor is nonlinear. For
linear predictors, DeepR-AFT performs better when the dimensions of covariates
are large. The proposed DeepR-AFT is illustrated using two real datasets, which
demonstrates its superiority.
- Abstract(参考訳): 加速故障時間(aft)モデルは、故障時間と一連の共変量との対数線形関係を仮定する。
危険機能に取り組む他の一般的な生存モデルとは対照的に、共変量の影響は直感的に解釈される障害時間に直接影響する。
誤差分布を規定しない半パラメトリックAFTモデルは、分布仮定から逸脱するために柔軟で堅牢である。
望ましい特徴から、このタイプのモデルは、検閲された障害時間データの解析において、一般的なcoxモデルに代わる有望な選択肢と見なされている。
しかしながら、これらの AFT モデルでは、平均に対する線形予測器が典型的に仮定される。
平均をモデル化する際、予測子の非線形性についてはほとんど研究されていない。
ディープニューラルネットワーク(DNN)は過去数十年にわたって注目され、様々な分野で大きな成功を収めてきた。
DNNにはいくつかの顕著な利点があり、非線形性に対処するのに特に有用であることが示されている。
これを利用して,Gehan型損失モデルとサブサンプリング手法を組み合わせることで,AFTモデルにDNNを適用することを提案する。
提案したDNNとランクベースAFTモデル(DeepR-AFT)の有限サンプル特性を広範囲にわたる刺激研究により検討した。
DeepR-AFTは、予測器が非線形である場合、パラメトリックまたはセミパラメトリックよりも優れた性能を示す。
線形予測器の場合、共変量の大きさが大きい場合、DeepR-AFTはより良く動作する。
提案するdeepr-aftは,その優位性を示す2つの実データセットを用いて示す。
関連論文リスト
- Deep Limit Model-free Prediction in Regression [0.0]
本稿では,DNN(Deep Neural Network)に基づくモデルフリーアプローチにより,一般的な回帰条件下での点予測と予測間隔を実現する。
提案手法は,特に最適点予測において,他のDNN法に比べて安定かつ正確である。
論文 参考訳(メタデータ) (2024-08-18T16:37:53Z) - Towards Flexible Time-to-event Modeling: Optimizing Neural Networks via
Rank Regression [17.684526928033065]
我々はDART(Time-to-event Prediction)のためのDeep AFT Rank-regressionモデルを導入する。
このモデルは、表現学習において効率的で信頼性の高いゲハンのランク統計に基づく客観的関数を用いる。
提案手法は, 生存時間分布に分布仮定を課さない半パラメトリックなAFTモデリング手法である。
論文 参考訳(メタデータ) (2023-07-16T13:58:28Z) - A Momentum-Incorporated Non-Negative Latent Factorization of Tensors
Model for Dynamic Network Representation [0.0]
大規模動的ネットワーク (LDN) は、多くのビッグデータ関連アプリケーションにおけるデータソースである。
テンソル(LFT)モデルの潜在因子化は、この時間パターンを効率的に抽出する。
勾配降下(SGD)解法に基づくLFTモデルは、トレーニングスキームによって制限されることが多く、尾収束が弱い。
本稿では,運動量付きSGDに基づく非線形LFTモデル(MNNL)を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:30:53Z) - Adaptive deep learning for nonlinear time series models [0.0]
我々は、ディープニューラルネットワーク(DNN)を用いた非定常および非線形時系列モデルの平均関数の適応的非パラメトリック推定の理論を開発する。
我々は、幅広い非線形自己回帰(AR)モデルに属する平均関数を推定するために、ミニマックス下限を導出する。
論文 参考訳(メタデータ) (2022-07-06T09:58:58Z) - Probabilistic model-error assessment of deep learning proxies: an
application to real-time inversion of borehole electromagnetic measurements [0.0]
深部電磁法(EM)測定における深部学習モデルの近似特性と関連するモデル誤差の影響について検討した。
フォワードモデルとしてディープニューラルネットワーク(DNN)を使用することで、数秒で数千のモデル評価を実行できます。
本稿では, モデル誤差を無視しながら, EM測定の逆転に伴う問題を明らかにする数値計算結果を提案する。
論文 参考訳(メタデータ) (2022-05-25T11:44:48Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Optimization Variance: Exploring Generalization Properties of DNNs [83.78477167211315]
ディープニューラルネットワーク(DNN)のテストエラーは、しばしば二重降下を示す。
そこで本研究では,モデル更新の多様性を測定するために,新しい測度である最適化分散(OV)を提案する。
論文 参考訳(メタデータ) (2021-06-03T09:34:17Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - LQF: Linear Quadratic Fine-Tuning [114.3840147070712]
本稿では,非線形微調整に匹敵する性能を実現する事前学習モデルの線形化手法を提案する。
LQFはアーキテクチャの単純な変更、損失関数、そして一般的に分類に使用される最適化で構成されている。
論文 参考訳(メタデータ) (2020-12-21T06:40:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。