論文の概要: Hierarchical Transformer Networks for Longitudinal Clinical Document
Classification
- arxiv url: http://arxiv.org/abs/2104.08444v1
- Date: Sat, 17 Apr 2021 04:45:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:16:23.483900
- Title: Hierarchical Transformer Networks for Longitudinal Clinical Document
Classification
- Title(参考訳): 長期臨床文書分類のための階層型トランスネットワーク
- Authors: Yuqi Si and Kirk Roberts
- Abstract要約: このネットワークは、3段階のトランスフォーマーベースのエンコーダを備えており、単語から文、文から音まで徐々に学習し、最終的に患者に注記する。
従来のBERTモデルと比較して,本モデルでは, 512語から, 長い臨床書面列に適した長いシーケンスへと, 最大入力長を増大させる。
予測タスクが異なるMIMIC-IIIデータセットに対する実験結果から,提案した階層モデルが従来の階層型ニューラルネットワークより優れていることが示された。
- 参考スコア(独自算出の注目度): 5.670490259188555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the Hierarchical Transformer Networks for modeling long-term
dependencies across clinical notes for the purpose of patient-level prediction.
The network is equipped with three levels of Transformer-based encoders to
learn progressively from words to sentences, sentences to notes, and finally
notes to patients. The first level from word to sentence directly applies a
pre-trained BERT model, and the second and third levels both implement a stack
of 2-layer encoders before the final patient representation is fed into the
classification layer for clinical predictions. Compared to traditional BERT
models, our model increases the maximum input length from 512 words to much
longer sequences that are appropriate for long sequences of clinical notes. We
empirically examine and experiment with different parameters to identify an
optimal trade-off given computational resource limits. Our experimental results
on the MIMIC-III dataset for different prediction tasks demonstrate that our
proposed hierarchical model outperforms previous state-of-the-art hierarchical
neural networks.
- Abstract(参考訳): 本稿では,患者レベルの予測を目的とした長期依存関係モデリングのための階層型トランスフォーマーネットワークを提案する。
このネットワークは、3段階のトランスフォーマーベースのエンコーダを備えており、単語から文、文から音まで徐々に学習し、最終的に患者に注記する。
単語から文への第1レベルは事前訓練されたbertモデルを直接適用し、第2レベルと第3レベルは2層エンコーダのスタックを実装し、最終患者表現は臨床予測のために分類層に供給される。
従来のBERTモデルと比較して,本モデルでは, 512語から, 長い臨床書面列に適した長いシーケンスへと, 最大入力長を増大させる。
計算資源限界の最適トレードオフを特定するために,異なるパラメータを用いて実験を行った。
予測タスクが異なるMIMIC-IIIデータセットに対する実験結果から,提案した階層モデルが従来の階層型ニューラルネットワークより優れていることが示された。
関連論文リスト
- Early Prediction of Causes (not Effects) in Healthcare by Long-Term Clinical Time Series Forecasting [11.96384267146423]
臨床変数の時系列予測(TSF)により原因を直接予測することを提案する。
モデルトレーニングは特定のラベルに依存しないため、予測されたデータはコンセンサスベースのラベルを予測するために使用できる。
論文 参考訳(メタデータ) (2024-08-07T14:52:06Z) - Injecting Hierarchical Biological Priors into Graph Neural Networks for Flow Cytometry Prediction [1.7709249262395883]
本研究では、単一セルのマルチクラス分類のためのグラフニューラルネットワーク(GNN)に階層的な事前知識を注入することを検討する。
本稿では,複数のGNNモデル,すなわちFCHC-GNNに適用可能な階層的なプラグイン手法を提案する。
論文 参考訳(メタデータ) (2024-05-28T18:24:16Z) - Predicting Infant Brain Connectivity with Federated Multi-Trajectory
GNNs using Scarce Data [54.55126643084341]
既存のディープラーニングソリューションには,3つの大きな制限がある。
我々はフェデレートグラフベースの多軌道進化ネットワークであるFedGmTE-Net++を紹介する。
フェデレーションの力を利用して、限られたデータセットを持つ多種多様な病院の地域学習を集約する。
論文 参考訳(メタデータ) (2024-01-01T10:20:01Z) - Predicting Transcription Factor Binding Sites using Transformer based
Capsule Network [0.8793721044482612]
転写因子の結合部位の予測は、どのように遺伝子発現を調節し、この制御を治療目的でどのように調節するかを理解するために重要である。
DNABERT-Capは、多数のゲノムDNA配列が事前訓練された双方向エンコーダであり、最終予測にカプセル層が関与する。
DNABERT-Capは、既存の最先端のディープラーニングベースの予測器vizと比較されている。DeepARC、DeepTF、CNN-Zeng、DeepBindは、それらを上回っている。
論文 参考訳(メタデータ) (2023-10-23T09:08:57Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - Hierarchical Label-wise Attention Transformer Model for Explainable ICD
Coding [10.387366211090734]
臨床文書からのICD符号の予測のための階層型ラベル対応アテンショントランスフォーマモデル (HiLAT) を提案する。
MIMIC-IIIデータベースから,病院の退院サマリーと対応するICD-9符号を用いたHiLATの評価を行った。
注意重みの可視化は、ICDコード予測の顔の妥当性を確認するための潜在的な説明可能性ツールを示す。
論文 参考訳(メタデータ) (2022-04-22T14:12:22Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Interpreting Deep Learning Models for Epileptic Seizure Detection on EEG
signals [4.748221780751802]
ディープラーニング(DL)は、しばしば人工知能ベースの医療意思決定支援の最先端とみなされます。
臨床現場では未だに実装されており、ニューラルネットワークモデルの解釈能力が不十分なため、臨床医の信頼は低い。
脳波信号に基づくてんかん発作のオンライン検出の文脈で解釈可能なDLモデルを開発することでこの問題に対処した。
論文 参考訳(メタデータ) (2020-12-22T11:10:23Z) - BiteNet: Bidirectional Temporal Encoder Network to Predict Medical
Outcomes [53.163089893876645]
本稿では,患者の医療旅行におけるコンテキスト依存と時間的関係を捉える,新たな自己注意機構を提案する。
エンド・ツー・エンドの双方向時間エンコーダネットワーク(BiteNet)が患者の旅路の表現を学習する。
実世界のEHRデータセットを用いた2つの教師付き予測と2つの教師なしクラスタリングタスクにおける手法の有効性を評価した。
論文 参考訳(メタデータ) (2020-09-24T00:42:36Z) - MetricUNet: Synergistic Image- and Voxel-Level Learning for Precise CT
Prostate Segmentation via Online Sampling [66.01558025094333]
本稿では,前立腺領域を高速に局在させる第1段階と,前立腺領域を正確に区分する第2段階の2段階のフレームワークを提案する。
マルチタスクネットワークにおけるボクセルワイドサンプリングによる新しいオンラインメトリック学習モジュールを提案する。
本手法は,従来のクロスエントロピー学習法やDice損失学習法と比較して,より代表的なボクセルレベルの特徴を効果的に学習することができる。
論文 参考訳(メタデータ) (2020-05-15T10:37:02Z) - Ensemble Transfer Learning for the Prediction of Anti-Cancer Drug
Response [49.86828302591469]
本稿では,抗がん剤感受性の予測にトランスファーラーニングを適用した。
我々は、ソースデータセット上で予測モデルをトレーニングし、ターゲットデータセット上でそれを洗練する古典的な転送学習フレームワークを適用した。
アンサンブル転送学習パイプラインは、LightGBMと異なるアーキテクチャを持つ2つのディープニューラルネットワーク(DNN)モデルを使用して実装されている。
論文 参考訳(メタデータ) (2020-05-13T20:29:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。