論文の概要: KL-divergence Based Deep Learning for Discrete Time Model
- arxiv url: http://arxiv.org/abs/2208.05100v1
- Date: Wed, 10 Aug 2022 01:46:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-11 12:38:16.888424
- Title: KL-divergence Based Deep Learning for Discrete Time Model
- Title(参考訳): KL分割に基づく離散時間モデルのための深層学習
- Authors: Li Liu, Xiangeng Fang, Di Wang, Weijing Tang, Kevin He
- Abstract要約: 新たに収集した時系列データと外部生存予測モデルを統合するために,Kullback-Leibler-based (KL)ディープラーニング手法を開発した。
時間依存KL識別情報を用いて、外部データと内部データとの差を測定する。
- 参考スコア(独自算出の注目度): 12.165326681174408
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Network (Deep Learning) is a modern model in Artificial Intelligence
and it has been exploited in Survival Analysis. Although several improvements
have been shown by previous works, training an excellent deep learning model
requires a huge amount of data, which may not hold in practice. To address this
challenge, we develop a Kullback-Leibler-based (KL) deep learning procedure to
integrate external survival prediction models with newly collected
time-to-event data. Time-dependent KL discrimination information is utilized to
measure the discrepancy between the external and internal data. This is the
first work considering using prior information to deal with short data problem
in Survival Analysis for deep learning. Simulation and real data results show
that the proposed model achieves better performance and higher robustness
compared with previous works.
- Abstract(参考訳): ニューラルネットワーク(Deep Learning)は、人工知能の現代モデルであり、Survival Analysisで活用されている。
これまでの研究でいくつかの改善が示されているが、優れたディープラーニングモデルのトレーニングには膨大なデータが必要になる。
この課題に対処するため,Kulback-Leibler-based Deep Learning(KL)法を開発し,新たに収集した時系列データと外部生存予測モデルを統合する。
時間依存KL識別情報を用いて、外部データと内部データとの差を測定する。
ディープラーニングのためのSurvival Analysisにおいて、事前情報を用いて短いデータ問題に対処することを検討する最初の作業である。
シミュレーションと実データの結果から,提案モデルが従来よりも優れた性能と高いロバスト性を実現することが示された。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - EsaCL: Efficient Continual Learning of Sparse Models [10.227171407348326]
連続的な学習設定の主な課題は、以前に学習したタスクを実行する方法を忘れずに、タスクのシーケンスを効率的に学習することである。
本研究では,モデルの予測力に悪影響を及ぼすことなく,冗長なパラメータを自動生成する,スパースモデル(EsaCL)の効率的な連続学習法を提案する。
論文 参考訳(メタデータ) (2024-01-11T04:59:44Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Towards Causal Deep Learning for Vulnerability Detection [31.59558109518435]
ソフトウェア工学モデルに計算に基づく因果学習を導入する。
以上の結果から,CausalVulはモデル精度,ロバスト性,OOD性能を一貫して改善した。
論文 参考訳(メタデータ) (2023-10-12T00:51:06Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - CTP: Towards Vision-Language Continual Pretraining via Compatible
Momentum Contrast and Topology Preservation [128.00940554196976]
Vision-Language Continual Pretraining (VLCP)は、大規模なデータセット上でオフラインでトレーニングすることで、さまざまな下流タスクに対して印象的な結果を示している。
VLCP(Vision-Language Continual Pretraining)の研究を支援するために,我々はまず,包括的で統一されたベンチマークデータセットP9Dをコントリビュートする。
独立したタスクとしての各業界からのデータは、継続的な学習をサポートし、Webデータの事前学習をシミュレートする現実世界のロングテールな性質に準拠している。
論文 参考訳(メタデータ) (2023-08-14T13:53:18Z) - Towards Robust Dataset Learning [90.2590325441068]
本稿では,頑健なデータセット学習問題を定式化するための三段階最適化法を提案する。
ロバストな特徴と非ロバストな特徴を特徴付ける抽象モデルの下で,提案手法はロバストなデータセットを確実に学習する。
論文 参考訳(メタデータ) (2022-11-19T17:06:10Z) - DeepVARwT: Deep Learning for a VAR Model with Trend [1.9862987223379664]
本稿では,トレンドと依存構造を最大限に推定するために,ディープラーニング手法を用いた新しい手法を提案する。
この目的のためにLong Short-Term Memory (LSTM) ネットワークが使用される。
シミュレーション研究と実データへの適用について述べる。
論文 参考訳(メタデータ) (2022-09-21T18:23:03Z) - Lifelong Infinite Mixture Model Based on Knowledge-Driven Dirichlet
Process [15.350366047108103]
生涯学習における最近の研究成果は、タスクの増加に対応するために、モデルの混合を成長させることが提案されている。
本研究では,データの確率的表現間の差分距離に基づいてリスク境界を導出することにより,生涯学習モデルの理論的解析を行う。
理論解析に着想を得て, 生涯無限混合モデル (LIMix) と呼ばれる新しい生涯学習手法を導入する。
論文 参考訳(メタデータ) (2021-08-25T21:06:20Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - A Simple and Interpretable Predictive Model for Healthcare [0.0]
ディープラーニングモデルは、現在、病気予測のための最先端のソリューションの大半を支配しています。
トレーニング可能なパラメータが数百万に分散したこれらのディープラーニングモデルは、トレーニングとデプロイに大量の計算とデータを必要とします。
EHRデータに適用するための,より単純かつ解釈可能な非深層学習モデルを開発した。
論文 参考訳(メタデータ) (2020-07-27T08:13:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。