論文の概要: Teaching deep learning causal effects improves predictive performance
- arxiv url: http://arxiv.org/abs/2011.05466v1
- Date: Wed, 11 Nov 2020 00:01:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 00:24:55.274403
- Title: Teaching deep learning causal effects improves predictive performance
- Title(参考訳): 深層学習因果効果の教育は予測性能を改善する
- Authors: Jia Li, Xiaowei Jia, Haoyu Yang, Vipin Kumar, Michael Steinbach,
Gyorgy Simon
- Abstract要約: 時間的EHRデータに対する因果時間構造を記述し、この構造に基づいて時系列のITTを推定する。
推定ITTを組み込む知識誘導型ニューラルネットワーク手法を提案する。
- 参考スコア(独自算出の注目度): 18.861884489332894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal inference is a powerful statistical methodology for explanatory
analysis and individualized treatment effect (ITE) estimation, a prominent
causal inference task that has become a fundamental research problem. ITE
estimation, when performed naively, tends to produce biased estimates. To
obtain unbiased estimates, counterfactual information is needed, which is not
directly observable from data. Based on mature domain knowledge, reliable
traditional methods to estimate ITE exist. In recent years, neural networks
have been widely used in clinical studies. Specifically, recurrent neural
networks (RNN) have been applied to temporal Electronic Health Records (EHR)
data analysis. However, RNNs are not guaranteed to automatically discover
causal knowledge, correctly estimate counterfactual information, and thus
correctly estimate the ITE. This lack of correct ITE estimates can hinder the
performance of the model. In this work we study whether RNNs can be guided to
correctly incorporate ITE-related knowledge and whether this improves
predictive performance. Specifically, we first describe a Causal-Temporal
Structure for temporal EHR data; then based on this structure, we estimate
sequential ITE along the timeline, using sequential Propensity Score Matching
(PSM); and finally, we propose a knowledge-guided neural network methodology to
incorporate estimated ITE. We demonstrate on real-world and synthetic data
(where the actual ITEs are known) that the proposed methodology can
significantly improve the prediction performance of RNN.
- Abstract(参考訳): 因果推論は、説明的分析と個別化治療効果(ite)推定のための強力な統計的方法論であり、基本的な研究課題となっている。
ite推定は、素直に行うとバイアスのある見積もりになる傾向がある。
偏りのない推定を得るには、データから直接観測できない偽情報が必要である。
成熟したドメイン知識に基づいて、iteを推定する信頼できる伝統的な方法が存在する。
近年、ニューラルネットワークは臨床研究に広く用いられている。
具体的には、時間的電子健康記録(EHR)データ分析にリカレントニューラルネットワーク(RNN)を適用している。
しかし、RNNは因果知識を自動的に発見し、反事実情報を正しく推定し、ITTを正確に推定することが保証されていない。
この正確なITE推定の欠如は、モデルの性能を妨げます。
本研究は, ite関連の知識を正しく取り入れるために, rnnを誘導できるか, 予測性能を向上させるか検討する。
具体的には,まず時間的eprデータに対する因果的時間的構造を記述し,この構造に基づいて逐次的iteを時系列的プロペンサリティスコアマッチング(psm)を用いて時系列に沿って推定し,最後に,推定iteを組み込むための知識誘導ニューラルネットワーク手法を提案する。
本稿では,実世界および合成データ(実際の it が知られている)について,提案手法が rnn の予測性能を大幅に向上させることを示す。
関連論文リスト
- Sparse Deep Learning for Time Series Data: Theory and Applications [9.878774148693575]
疎いディープラーニングは、ディープニューラルネットワークのパフォーマンスを改善するための一般的なテクニックとなっている。
本稿では,データを用いた疎い深層学習の理論について検討する。
提案手法は時系列データの自己回帰順序を連続的に同定できることを示す。
論文 参考訳(メタデータ) (2023-10-05T01:26:13Z) - Instance-based Learning with Prototype Reduction for Real-Time
Proportional Myocontrol: A Randomized User Study Demonstrating
Accuracy-preserving Data Reduction for Prosthetic Embedded Systems [0.0]
本研究は, 義肢制御におけるジェスチャー検出のためのkNNスキームに基づく学習手法の設計, 実装, 検証を行う。
8チャンネルSEMGアームバンドを用いて,パラメータ化と比例スキームの変化の影響を解析した。
論文 参考訳(メタデータ) (2023-08-21T20:15:35Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Confidence-Nets: A Step Towards better Prediction Intervals for
regression Neural Networks on small datasets [0.0]
そこで本研究では,予測の不確かさを推定し,精度を向上し,予測変動の間隔を与えるアンサンブル手法を提案する。
提案手法は様々なデータセットで検証され,ニューラルネットワークモデルの性能が大幅に向上した。
論文 参考訳(メタデータ) (2022-10-31T06:38:40Z) - Probabilistic AutoRegressive Neural Networks for Accurate Long-range
Forecasting [6.295157260756792]
確率的自己回帰ニューラルネットワーク(PARNN)について紹介する。
PARNNは、非定常性、非線形性、非調和性、長距離依存、カオスパターンを示す複雑な時系列データを扱うことができる。
本研究では,Transformers,NBeats,DeepARなどの標準統計モデル,機械学習モデル,ディープラーニングモデルに対して,PARNNの性能を評価する。
論文 参考訳(メタデータ) (2022-04-01T17:57:36Z) - Recurrent Neural Networks for Learning Long-term Temporal Dependencies
with Reanalysis of Time Scale Representation [16.32068729107421]
時間的表現としての忘れ門の解釈は、状態に対する損失の勾配が時間とともに指数関数的に減少するときに有効であると主張する。
本稿では,従来のモデルよりも長い時間スケールを表現できる新しいRNNの構築手法を提案する。
論文 参考訳(メタデータ) (2021-11-05T06:22:58Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - Frequentist Uncertainty in Recurrent Neural Networks via Blockwise
Influence Functions [121.10450359856242]
リカレントニューラルネットワーク(RNN)は、シーケンシャルおよび時系列データのモデリングに有効である。
RNNにおける既存の不確実性定量化のアプローチは、主にベイズ法に基づいている。
a)モデルトレーニングに干渉せず、その精度を損なうことなく、(b)任意のRNNアーキテクチャに適用し、(c)推定不確かさ間隔に関する理論的カバレッジ保証を提供する。
論文 参考訳(メタデータ) (2020-06-20T22:45:32Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。