論文の概要: Hidden Markov models as recurrent neural networks: an application to
Alzheimer's disease
- arxiv url: http://arxiv.org/abs/2006.03151v4
- Date: Fri, 1 Oct 2021 21:47:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 09:51:38.513745
- Title: Hidden Markov models as recurrent neural networks: an application to
Alzheimer's disease
- Title(参考訳): 繰り返しニューラルネットワークとしての隠れマルコフモデル-アルツハイマー病への応用
- Authors: Matt Baucum, Anahita Khojandi, Theodore Papamarkou
- Abstract要約: 我々は、ニューラルネットワークの柔軟性とHMMの解釈可能性を組み合わせた、リカレントニューラルネットワークの特殊なケースを開発する。
HMRNNは、同一の正則関数とパラメータ解釈を持つ標準HMMに還元することができる。
我々は、HMRNNがHMMと他の予測ニューラルネットワークを組み合わせることで、疾患予測を改善し、新しい臨床解釈を提供する方法を実証する。
- 参考スコア(独自算出の注目度): 4.792577969243023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hidden Markov models (HMMs) are commonly used for disease progression
modeling when the true patient health state is not fully known. Since HMMs
typically have multiple local optima, incorporating additional patient
covariates can improve parameter estimation and predictive performance. To
allow for this, we develop hidden Markov recurrent neural networks (HMRNNs), a
special case of recurrent neural networks that combine neural networks'
flexibility with HMMs' interpretability. The HMRNN can be reduced to a standard
HMM, with an identical likelihood function and parameter interpretations, but
it can also combine an HMM with other predictive neural networks that take
patient information as input. The HMRNN estimates all parameters simultaneously
via gradient descent. Using a dataset of Alzheimer's disease patients, we
demonstrate how the HMRNN can combine an HMM with other predictive neural
networks to improve disease forecasting and to offer a novel clinical
interpretation compared with a standard HMM trained via
expectation-maximization.
- Abstract(参考訳): 隠れマルコフモデル(HMM)は、真の患者の健康状態が完全には分かっていないときに、疾患進行モデリングに一般的に使用される。
HMMは一般に複数の局所最適値を持つため、追加の患者共変分を組み込むことでパラメータ推定と予測性能が向上する。
これを可能にするために,隠れマルコフ再帰ニューラルネットワーク(HMRNN)を開発した。これは,ニューラルネットワークの柔軟性とHMMの解釈可能性を組み合わせた,リカレントニューラルネットワークの特殊な例である。
HMRNNは、同一の仮説関数とパラメータ解釈を持つ標準的なHMMに還元できるが、HMMと他の予測ニューラルネットワークを組み合わせて、患者情報を入力として取ることもできる。
HMRNNは勾配降下によって全てのパラメータを同時に推定する。
アルツハイマー病患者のデータセットを用いて、HMRNNがHMMと他の予測ニューラルネットワークを組み合わせることで、疾患予測を改善し、予測最大化によってトレーニングされた標準HMMと比較して、新しい臨床解釈を提供する方法を示す。
関連論文リスト
- Input layer regularization and automated regularization hyperparameter tuning for myelin water estimation using deep learning [1.9594393134885413]
そこで本研究では,脳内ミエリン水分率(MWF)を2次解析により推定する手法として,古典的正規化とデータ拡張を組み合わせた新しいディープラーニング手法を提案する。
特に,MWF推定に使用される信号モデルの1つである双指数モデルについて検討する。
論文 参考訳(メタデータ) (2025-01-30T00:56:28Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Learning Successor Features with Distributed Hebbian Temporal Memory [44.99833362998488]
本稿では,不確実性を考慮した意思決定におけるオンライン時間記憶学習の課題に対して,新しいアプローチを提案する。
提案アルゴリズムは因子グラフ形式と多成分ニューロンモデルに基づく分散Hebbian Temporal Memory (DHTM) である。
実験の結果,非定常データセットの場合,DHTMはLSTMと生物学的にインスパイアされたHMMライクなアルゴリズムCSCGより優れていた。
論文 参考訳(メタデータ) (2023-10-20T10:03:14Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Why Do Pretrained Language Models Help in Downstream Tasks? An Analysis
of Head and Prompt Tuning [66.44344616836158]
本稿では,事前学習タスクと下流タスクをテキストの潜在変数生成モデルに関連付ける分析フレームワークを提案する。
HMMの特定の非退化条件下では、単純な分類ヘッドがダウンストリームタスクを解くことができ、また、迅速なチューニングにより、より弱い非退化条件で下流の保証を得ることができ、さらに、メモリ拡張HMMの回復保証がバニラHMMよりも強いことを示す。
論文 参考訳(メタデータ) (2021-06-17T03:31:47Z) - Adaptable Hamiltonian neural networks [0.0]
Hamiltonian Neural Networks (HNN) は物理学で強化されたニューラルネットワークの主要なクラスである。
非線形物理系の適応予測が可能なHNNのクラスを紹介します。
我々は,パラメータ認識型HNNがカオスへの移行経路を予測できることを示した。
論文 参考訳(メタデータ) (2021-02-25T23:53:51Z) - Robust Classification using Hidden Markov Models and Mixtures of
Normalizing Flows [25.543231171094384]
我々は,隠れマルコフモデル(HMM)の状態遷移と,隠れたHMMの状態に対するニューラルネットワークに基づく確率分布を組み合わせた生成モデルを用いる。
音声認識への応用におけるNMM-HMM分類器の堅牢性の改善を検証する。
論文 参考訳(メタデータ) (2021-02-15T00:40:30Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - Going deeper with brain morphometry using neural networks [18.851541271793085]
深部畳み込みニューラルネットワークは数秒で形態計測を推測できる。
我々はHerstonNetという名の脳形態計測のためのより正確で効率的なニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2020-09-07T07:57:13Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Q-GADMM: Quantized Group ADMM for Communication Efficient Decentralized Machine Learning [66.18202188565922]
我々はQGADMM(QGADMM)という通信効率の高い分散機械学習(ML)アルゴリズムを提案する。
我々は,凸関数に対するQGADMMの収束性を証明しつつ,モデル化レベルとその確率を適応的に調整する新しい量子化法を開発した。
論文 参考訳(メタデータ) (2019-10-23T10:47:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。