論文の概要: MULTIPAR: Supervised Irregular Tensor Factorization with Multi-task
Learning
- arxiv url: http://arxiv.org/abs/2208.00993v1
- Date: Mon, 1 Aug 2022 17:07:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:24:25.179067
- Title: MULTIPAR: Supervised Irregular Tensor Factorization with Multi-task
Learning
- Title(参考訳): MultiPAR:マルチタスク学習による不規則なテンソル因子化
- Authors: Yifei Ren, Jian Lou, Li Xiong, Joyce C Ho, Xiaoqian Jiang,
Sivasubramanium Bhavan
- Abstract要約: PARAFAC2は有意義な医療概念(フェノタイプ)の抽出に成功している
マルチタスク学習を用いた教師付き不規則なテンソル分解法である MultiPAR を提案する。
- 参考スコア(独自算出の注目度): 19.67636717572317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tensor factorization has received increasing interest due to its intrinsic
ability to capture latent factors in multi-dimensional data with many
applications such as recommender systems and Electronic Health Records (EHR)
mining. PARAFAC2 and its variants have been proposed to address irregular
tensors where one of the tensor modes is not aligned, e.g., different users in
recommender systems or patients in EHRs may have different length of records.
PARAFAC2 has been successfully applied on EHRs for extracting meaningful
medical concepts (phenotypes). Despite recent advancements, current models'
predictability and interpretability are not satisfactory, which limits its
utility for downstream analysis. In this paper, we propose MULTIPAR: a
supervised irregular tensor factorization with multi-task learning. MULTIPAR is
flexible to incorporate both static (e.g. in-hospital mortality prediction) and
continuous or dynamic (e.g. the need for ventilation) tasks. By supervising the
tensor factorization with downstream prediction tasks and leveraging
information from multiple related predictive tasks, MULTIPAR can yield not only
more meaningful phenotypes but also better predictive performance for
downstream tasks. We conduct extensive experiments on two real-world temporal
EHR datasets to demonstrate that MULTIPAR is scalable and achieves better
tensor fit with more meaningful subgroups and stronger predictive performance
compared to existing state-of-the-art methods.
- Abstract(参考訳): テンソル因子化は、レコメンダシステムや電子健康記録(EHR)マイニングなど多くの応用で多次元データ中の潜伏因子を捕捉する本質的な能力によって、関心が高まっている。
PARAFAC2とその変種は、テンソルモードの1つが整列していない不規則なテンソルに対処するために提案されている。
PARAFAC2は、有意義な医療概念(フェノタイプ)を抽出するために、EHRにうまく適用されている。
最近の進歩にもかかわらず、現在のモデルの予測可能性と解釈性は満足できないため、下流解析に有用性が制限されている。
本稿では,マルチタスク学習を用いた教師付き不規則テンソル分解法であるmultiparを提案する。
MultiPARは静的(院内死亡予測など)と連続的または動的(換気の必要性など)の両方を組み込むことが柔軟である。
下流予測タスクでテンソル分解を監督し、関連する複数の予測タスクの情報を活用することで、マルチパーはより意味のある表現型だけでなく下流タスクの予測性能も向上できる。
我々は、2つの実世界の時空間EHRデータセットに対して広範な実験を行い、MultiPARは拡張性があり、より有意義なサブグループに適合し、既存の最先端手法と比較してより強力な予測性能が得られることを示した。
関連論文リスト
- TFT-multi: simultaneous forecasting of vital sign trajectories in the ICU [0.0]
医療データにおける軌道予測は、計算手法の精度ケアと臨床統合において重要な研究領域である。
我々は、多次元時系列予測ツールであるフレームワーク時間融合変換器(TFT)を拡張し、TFT-multiを提案する。
集中治療室で記録された5つのバイタルサイン (血圧, 脈拍, SpO2, 温度, 呼吸速度) の予測にTFT-multiを適用した。
論文 参考訳(メタデータ) (2024-09-23T22:36:37Z) - Denoising Pre-Training and Customized Prompt Learning for Efficient Multi-Behavior Sequential Recommendation [69.60321475454843]
マルチビヘイビアシークエンシャルレコメンデーションに適した,最初の事前学習および迅速な学習パラダイムであるDPCPLを提案する。
事前学習段階において,複数の時間スケールでノイズを除去する新しい行動マイナ (EBM) を提案する。
次に,提案するCustomized Prompt Learning (CPL)モジュールを用いて,事前学習したモデルを高効率にチューニングすることを提案する。
論文 参考訳(メタデータ) (2024-08-21T06:48:38Z) - MPRE: Multi-perspective Patient Representation Extractor for Disease
Prediction [3.914545513460964]
疾患予測のための多視点患者表現エクストラクタ(MPRE)を提案する。
具体的には、動的特徴の傾向と変動情報を抽出する周波数変換モジュール(FTM)を提案する。
2D Multi-Extraction Network (2D MEN) において、傾向と変動に基づいて2次元時間テンソルを形成する。
また,FODAM(First-Order difference Attention Mechanism)も提案する。
論文 参考訳(メタデータ) (2024-01-01T13:52:05Z) - SOFARI: High-Dimensional Manifold-Based Inference [8.860162863559163]
我々は2つのSOFARI変種を導入し、強力で弱い潜伏要因を扱えるようにし、後者は広範囲のアプリケーションをカバーする。
そこで我々は,SOFARIが潜在左因子ベクトルと特異値の両方に対して偏差補正推定器を提供し,その平均零正規分布を疎分散で楽しむことを示す。
本稿では,SOFARIの有効性を概説し,シミュレーション例による理論結果の正当化と,経済予測における実データの適用について述べる。
論文 参考訳(メタデータ) (2023-09-26T16:01:54Z) - Extension of Transformational Machine Learning: Classification Problems [0.0]
本研究では、薬物発見における変換機械学習(TML)の適用と性能について検討する。
メタ学習アルゴリズムであるTMLは、さまざまなドメインにまたがる共通属性の活用に優れています。
薬物発見プロセスは複雑で時間を要するが、予測精度の増大から大きな恩恵を受けることができる。
論文 参考訳(メタデータ) (2023-08-07T07:34:18Z) - On the Trade-off of Intra-/Inter-class Diversity for Supervised
Pre-training [72.8087629914444]
教師付き事前学習データセットのクラス内多様性(クラス毎のサンプル数)とクラス間多様性(クラス数)とのトレードオフの影響について検討した。
トレーニング前のデータセットのサイズが固定された場合、最高のダウンストリームのパフォーマンスは、クラス内/クラス間の多様性のバランスがとれる。
論文 参考訳(メタデータ) (2023-05-20T16:23:50Z) - Tensorized LSSVMs for Multitask Regression [48.844191210894245]
マルチタスク学習(MTL)は、複数のタスク間の関連性を利用してパフォーマンスを向上させる。
低ランクテンソル解析とLast Squares Support Vectorized Least Squares Support Vectorized tLSSVM-MTLを利用する。
論文 参考訳(メタデータ) (2023-03-04T16:36:03Z) - ER: Equivariance Regularizer for Knowledge Graph Completion [107.51609402963072]
我々は、新しい正規化器、すなわち等分散正規化器(ER)を提案する。
ERは、頭と尾のエンティティ間の意味的等価性を利用することで、モデルの一般化能力を高めることができる。
実験結果から,最先端関係予測法よりも明確かつ実質的な改善が示された。
論文 参考訳(メタデータ) (2022-06-24T08:18:05Z) - Training Discrete Deep Generative Models via Gapped Straight-Through
Estimator [72.71398034617607]
再サンプリングのオーバーヘッドを伴わずに分散を低減するため, GST (Gapped Straight-Through) 推定器を提案する。
この推定子は、Straight-Through Gumbel-Softmaxの本質的な性質に着想を得たものである。
実験により,提案したGST推定器は,2つの離散的な深部生成モデリングタスクの強いベースラインと比較して,優れた性能を享受できることが示された。
論文 参考訳(メタデータ) (2022-06-15T01:46:05Z) - Accurate Remaining Useful Life Prediction with Uncertainty
Quantification: a Deep Learning and Nonstationary Gaussian Process Approach [0.0]
有用寿命 (Retaining useful life, RUL) とは、あるコンポーネントやシステムの寿命が期待されていることを指す。
我々は、深層学習と非定常ガウス過程回帰(DL-NSGPR)の利点を統合し、活用する、不確実な定量化を伴う高精度なRUL予測モデルを考案した。
計算実験の結果,DL-NSGPR予測はルート平均2乗誤差1.7~6.2倍の精度で精度が高いことがわかった。
論文 参考訳(メタデータ) (2021-09-23T18:19:58Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。