論文の概要、ライセンス

# (参考訳) 電子健康記録上の不均一類似性グラフニューラルネットワーク [全文訳有]

Heterogeneous Similarity Graph Neural Network on Electronic Health Records ( http://arxiv.org/abs/2101.06800v1 )

ライセンス: CC BY 4.0
Zheng Liu, Xiaohan Li, Hao Peng, Lifang He, Philip S. Yu(参考訳) 電子健康記録(ehrs)の採掘は、情報が豊富であることから、有望な話題となっている。 ehrsから学習することで、人間の専門家が医療判断を行なえ、医療品質を改善するために機械学習モデルを構築することができる。 近年,この目的を達成するためにシーケンシャルモデルやグラフモデルに基づくモデルが多数提案されている。 EHRは複数の実体と関係を持ち、不均一グラフと見なすことができる。 しかし、以前の研究では、EHRの不均一性は無視されていた。 一方、現在の異種グラフニューラルネットワークは、ハブノードが存在するため、単にEHRグラフ上では使用できない。 この問題に対処するために,新しい異種GNNを用いた異種類似グラフニューラルネットワーク(HSGNN)を提案する。 フレームワークは2つの部分から構成される: 1つは前処理方式で、もう1つはエンドツーエンドのGNNである。 前処理法はエッジを正規化し、EHRグラフを複数の同質グラフに分割する一方、各同質グラフは元のEHRグラフの部分情報を含む。 GNNは全ての同質グラフを入力として取り、それら全てを1つのグラフに融合して予測する。 実験の結果,HSGNNは診断予測タスクにおいて,他のベースラインよりも優れていた。

Mining Electronic Health Records (EHRs) becomes a promising topic because of the rich information they contain. By learning from EHRs, machine learning models can be built to help human experts to make medical decisions and thus improve healthcare quality. Recently, many models based on sequential or graph models are proposed to achieve this goal. EHRs contain multiple entities and relations and can be viewed as a heterogeneous graph. However, previous studies ignore the heterogeneity in EHRs. On the other hand, current heterogeneous graph neural networks cannot be simply used on an EHR graph because of the existence of hub nodes in it. To address this issue, we propose Heterogeneous Similarity Graph Neural Network (HSGNN) analyze EHRs with a novel heterogeneous GNN. Our framework consists of two parts: one is a preprocessing method and the other is an end-to-end GNN. The preprocessing method normalizes edges and splits the EHR graph into multiple homogeneous graphs while each homogeneous graph contains partial information of the original EHR graph. The GNN takes all homogeneous graphs as input and fuses all of them into one graph to make a prediction. Experimental results show that HSGNN outperforms other baselines in the diagnosis prediction task.
公開日: Sun, 17 Jan 2021 23:14:29 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Heterogeneous Similarity Graph Neural Network on 不均一類似性グラフニューラルネットワーク 0.82
Electronic Health Records Zheng Liu∗, Xiaohan Li∗, Hao Peng†, Lifang He‡, Philip S. Yu∗ 電子健康記録 Zheng Liu∗, Xiaohan Li∗, Hao Peng', Lifang He', Philip S. Yu∗ 0.82
∗University of Illinois at Chicago, Chicago, IL, USA ∗イリノイ大学、シカゴ、シカゴ、イル、アメリカ 0.66
{zliu212, xli241, psyu}@uic.edu †Beihang University, Beijing, China [zliu212, xli241, psyu}@uic.edu >Beihang University, Beijing, China] 0.81
penghao@act.buaa.edu .cn penghao@act.buaa.edu .cn 0.47
‡Lehigh University, Bethlehem, PA, USA アメリカ合衆国, ベツレヘムのイルハイ大学 0.60
lih319@lehigh.edu lih319@lehigh.edu 0.67
1 2 0 2 n a J 1 2 0 2 n a J 0.85
7 1 ] G L . 7 1 ] G L。 0.81
s c [ 1 v 0 0 8 6 0 sc [ 1 v 0 0 8 6 0 0.68
. 1 0 1 2 : v i X r a . 1 0 1 2 : v i X r a 0.85
Abstract—Mining Electronic Health Records (EHRs) becomes a promising topic because of the rich information they contain. Abstract — Mining Electronic Health Records (EHRs)は、それらに含まれる豊富な情報のために、有望なトピックになる。 0.67
By learning from EHRs, machine learning models can be built to help human expert to make medical decisions and thus improve healthcare quality. ehrsから学習することで、人間の専門家が医療判断を行なえ、医療品質を改善するために機械学習モデルを構築することができる。
訳抜け防止モード: EHRから学習することで、機械学習モデルを構築することができる 医療専門家が医療の質を向上させるのに役立ちます
0.80
Recently, many models based on sequential or graph model are proposed to achieve this goal. 近年,この目的を達成するためにシーケンシャルモデルやグラフモデルに基づくモデルが多数提案されている。 0.70
EHRs contain multiple entities and relations, and can be viewed as a heterogeneous graph. EHRは複数の実体と関係を持ち、不均一グラフと見なすことができる。 0.71
However, previous studies ignore the heterogeneity in EHRs. しかし、以前の研究では、EHRの不均一性は無視されていた。 0.42
On the other hand, current heterogeneous graph neural networks cannot be simply used on EHR graph because of the existence of hub nodes in it. 一方、現在の異種グラフニューラルネットワークは、その中にハブノードが存在するため、単にEHRグラフ上では利用できない。 0.70
To address this issue, we propose Heterogeneous Similarity Graph Neural Network (HSGNN) to analyze EHRs with a novel heterogeneous GNN. この問題に対処するために,新しい異種GNNを用いてEHRを解析するための異種類似グラフニューラルネットワーク(HSGNN)を提案する。 0.72
Our framework consists of two parts: one is a preprocessing method and the other is an end-to-end GNN. フレームワークは2つの部分から構成される: 1つは前処理方式で、もう1つはエンドツーエンドのGNNである。 0.54
The preprocessing method normalizes edges and splits the EHR graph into multiple homogeneous graphs while each homogeneous graph contains partial information of the original EHR graph. 前処理法はエッジを正規化し、EHRグラフを複数の同質グラフに分割する一方、各同質グラフは元のEHRグラフの部分情報を含む。 0.77
The GNN takes all homogeneous graphs as input and fuses all of them into one graph to make prediction. GNNは全ての同質グラフを入力として取り、それら全てを1つのグラフに融合して予測する。 0.70
Experimental results show that HSGNN outperforms other baselines in the diagnosis prediction task. 実験の結果,HSGNNは診断予測タスクにおいて,他のベースラインよりも優れていた。 0.60
I. INTRODUCTION The accumulation of large-scale Electronic Health Records (EHRs) provides us with great opportunity of deep learning applications on healthcare. I 導入 大規模なElectronic Health Records(EHR)の蓄積は、ヘルスケアにディープラーニングを適用する大きな機会を与えてくれます。 0.55
Recently, many deep learning models have been applied to medical tasks such as phenotyping [1], [2], medical predictive modeling [3], [4] and medication recommendation [5]. 近年, 表現型 [1], [2], 医学予測モデル [3], [4], 医薬品推奨 [5] など, 多くの深層学習モデルが医学的課題に応用されている。 0.82
Generally, raw EHRs consist of multiple kinds of features of patients, including demographics, observations, diagnoses, medications, and procedures ordered by time. 一般的に、生の EHR は、人口統計、観察、診断、薬物、時間順の処置など、患者の様々な特徴から構成される。 0.65
For example, Fig.1 shows an example of an EHR graph with two patients and three visit records. 例えば、図1は、2人の患者と3人の訪問記録を持つEHRグラフの例を示している。 0.74
In Fig 1, there are two patients p1 and p2, where p1 has visited the medical provider twice and p2 has visited once (with timestamp recorded). 図1には、p1とp2の2つの患者があり、p1が2度、p2が1度、タイムスタンプが記録されている。 0.70
During the visit some diagnoses or medications may occur to the patient. 訪問中、患者にいくつかの診断や薬が生じることがある。 0.66
All medical concepts such as diagnosis, medications and procedures are medical codes and scientists can easily track them through some medical ontology. 診断、医薬品、処置などの医療概念はすべて医療コードであり、科学者は容易に医療オントロジーを通してそれらを追跡できる。
訳抜け防止モード: 診断、薬、処置といった全ての医療概念は医療コードです 科学者は医学的なオントロジーを 簡単に追跡できます
0.79
Because one patient can have multiple visits recorded, EHR can be viewed as sequential historical 1人の患者が複数の訪問を記録できるため、EHRはシーケンシャルな歴史と見なすことができる 0.72
978-1-7281-6251-5/20 /$31.00 ©2020 IEEE 978-1-7281-6251-5/20 /$31.00 0.29
Fig. 1: An example of heterogeneous EHR graph. フィギュア。 1: 異種EHRグラフの例。 0.52
records for each patient. 各患者についての記録。 0.62
Moreover, because of the variety of medical codes and their relations, EHR can be viewed as a heterogeneous graph with multiple types of nodes and edges. さらに、様々な医療コードとその関係のため、EHRは複数の種類のノードとエッジを持つ異種グラフと見なすことができる。 0.73
EHR analysis plays an important role in medical research and can improve the level of healthcare. EHR分析は医学研究において重要な役割を担い、医療水準を向上することができる。 0.76
By learning from EHRs, scientists can either discover useful facts or build intelligent applications. EHRから学ぶことで、科学者は有用な事実を発見するか、インテリジェントなアプリケーションを構築することができる。 0.53
For example, the prescriptions in EHRs can help make medication recommendations [5], and the phenotypes of patients indicate the distribution of cohorts [6]. 例えば、EHRの処方薬は[5]を処方するのに役立ち、患者の表現型はコホートの分布を示す[6]。 0.68
With Artificial Intelligence (AI) technologies, scientists can build applications to provide useful suggestions to doctors, or let patients understand their physical conditions better. ai(artificial intelligence, 人工知能)技術により、科学者は医師に有用な提案を提供するアプリケーションを構築したり、患者の身体状態をよりよく理解したりすることができる。
訳抜け防止モード: 人工知能(AI)技術によって、医師に有用な提案を提供するアプリケーションを構築することができる。 患者に体調をよく理解させます
0.71
To build such a medical AI application, a key issue is to learn effective representations for each medical concept and patient [7], [8]. このような医療aiアプリケーションを構築するためには,医療概念と患者[7],[8]ごとに効果的な表現を学ぶことが重要な課題である。 0.77
However, there are two challenges of learning such representations. しかし、そのような表現を学ぶには2つの課題がある。 0.54
One is data insufficiency. 1つはデータ不足です。 0.61
Due to the the privacy policy and the expense of collecting data, the volume of an EHR dataset is generally smaller than image or language datasets. プライバシポリシとデータの収集費用のため、EHRデータセットのボリュームは一般的に、画像や言語データセットよりも小さい。 0.65
Therefore, it is difficult for deep learning models designed for images or languages tasks to process EHR data. したがって、画像や言語タスク用に設計された深層学習モデルでは、EHRデータを処理することは困難である。 0.72
The other is the heterogeneity of EHR. もう1つは EHR の不均一性である。 0.56
EHR is of complex structure and contains multiple relationships. EHRは複雑な構造であり、複数の関係を持つ。 0.68
Only when all relations are properly used then the model can achieve a satisfactory performance. すべての関係が適切に使用される場合に限り、モデルは十分な性能を達成できる。 0.69
Patient 1Patient 21st visit2nd visit1st visitBenzodiazepines InsomniaPalpitationH eadacheIbuprofen Patient Visit Diagnosis MedicationHeterogene ous EHR Graph 患者1Patient 21st visit2nd visit1st visitBenzodiazepines InsomniaPalpitationH eadacheIbuprofen patient visit Medicine Heterogeneous EHR Graph 0.47
英語(論文から抽出)日本語訳スコア
Previously, many models regard EHRs as sequences and use sequential models such as RNNs to analyze EHR [9], [10], [11], [12], [13]. これまで、多くのモデルはEHRをシーケンスとみなし、RNNのようなシーケンシャルモデルを使ってEHR [9], [10], [11], [12], [13]を分析してきた。 0.81
These methods use historical information to predict the next-period situation of a patient. これらの方法は、患者の次の期間の状況を予測するために歴史的な情報を使用する。 0.54
However, sequential models are not enough to capture structural information and need a large amount of data to train. しかし、シーケンシャルモデルは構造情報をキャプチャするのに十分ではなく、トレーニングに大量のデータが必要である。
訳抜け防止モード: しかし 逐次モデルだけでは不十分です 構造情報を取り込む トレーニングするには大量のデータが必要です。
0.80
To address these issues, some other approaches take EHR as a graph shown in Fig 1, and then use graph neural networks (GNNs) to learn embedding vectors for each node [14], [15], [16], [17]. これらの問題に対処するため、他のアプローチでは、EHRを図1に示すグラフとして取り上げ、グラフニューラルネットワーク(GNN)を使用して各ノード [14], [15], [16], [17] の埋め込みベクトルを学習する。 0.86
Among them, GRAM [16] proposes the first graphbased model that can integrate external hierarchical ontologies when generating results. GRAM [16]は、結果を生成する際に外部階層的オントロジーを統合することができる最初のグラフベースモデルを提案する。 0.73
MiME [17] learns multi-level representations of medical codes based on EHR data in a hierarchical order. MiME[17]はEHRデータに基づく医療コードのマルチレベル表現を階層的に学習する。 0.80
Graph convolutional transformer (GCT) [15] learns the medical representations together with the hidden causal structure of EHR using the “pre-training&fine-tuning” procedure. グラフ畳み込み変換器 (GCT) [15] は, EHRの隠れ因果構造とともに, 「事前学習・微調整」 手法を用いて医学的表現を学習する。 0.70
Compared with sequential models, these graphbased models are more robust to insufficient data because of the use of structural information: the model can use neighbor information to complete missing entries in the dataset. シーケンシャルモデルと比較して、これらのグラフベースのモデルは、構造情報を使用するため、不十分なデータに対してより堅牢である。 0.59
As the above GNN models are designed only for homogeneous graphs, they fail to take all kinds of medical codes into account. 上記のGNNモデルは、均質グラフのみのために設計されているため、あらゆる種類の医療コードを考慮に入れられない。 0.76
EHR data contains multiple kinds of medical codes and relations, so it is naturally heterogeneous. EHRデータは、複数の種類の医療コードと関係を含んでいるため、自然に異種である。 0.70
To capture multiple relations in the graph, heterogeneous graph neural networks [18], [19], [20] are necessary in the EHR analysis. グラフ内の複数の関係を捉えるためには、EHR解析において異種グラフニューラルネットワーク [18], [19], [20] が必要である。 0.88
Basically, these models take a heterogeneous graph as input and process different kinds of nodes or meta-paths[21] respectively. 基本的に、これらのモデルは異種グラフを入力として、それぞれ異なる種類のノードやメタパス[21]を処理する。 0.67
However, applying these models on EHR graphs directly can cause very low performance because of the hub nodes with high visibility [22]. しかし、これらのモデルをEHRグラフに直接適用すると、高い可視性を持つハブノードのため、非常に低いパフォーマンスをもたらす可能性がある [22]。 0.69
For example, if an EHR graph contains the “gender” information, and then all patient nodes would link to either “male” or “female” nodes. 例えば、EHRグラフに“性”情報が含まれている場合、すべての患者ノードが“男性”または“女性”ノードにリンクする。 0.74
If we don’t conduct a normalization on these links, these two gender nodes would strongly influence all other nodes. これらのリンクの正規化を行わなければ、これらの2つのジェンダーノードは他のすべてのノードに強く影響するでしょう。
訳抜け防止モード: これらのリンクを正規化しない場合。 この2つのジェンダーノードは 他の全てのノードに強く影響を与えます
0.73
After applying heterogeneous GNNs, all other nodes in the graph will eventually learn the same representations as either “male” or “female” nodes. ヘテロジニアスgnnを適用した後、グラフ内の他のノードはすべて、最終的に“male”または“female”ノードと同じ表現を学習する。 0.74
This phenomenon is similar to the over-smoothing [23] problem. この現象は過密[23]問題に似ています。 0.75
Over-smoothing means after applying GNNs with multiple layers, all node embeddings become close and finally indistinguishable. オーバースムーシング(over-smoothing)とは、複数のレイヤでGNNを適用すると、すべてのノードの埋め込みが近くなり、最終的に区別不能になる。
訳抜け防止モード: 複数の層でgnnを適用した後のスムース化手段。 すべてのノードの埋め込みは親密になり、最終的に区別がつかない。
0.46
Some studies [24] indicate the reason of over-smoothing is the existence of noise in the graph, which can be supported in our case: since gender is not the most informative attribute of a patient (containing too much noise), introducing it into the graph does not always helpful to the prediction task. いくつかの研究[24]は、過剰なスムーシングの理由は、グラフ内のノイズの存在であり、このケースでは支持できる: 性別は、患者の最も情報性の高い属性ではない(ノイズが多すぎる)ので、グラフにそれを導入することは、予測タスクに必ずしも役に立たない。 0.70
To address this issue, we propose Heterogeneous Similarity Graph Neural Network (HSGNN), a framework using GNN to analyze EHR graphs. この問題に対処するために,GNN を用いた EHR グラフ解析フレームワークである Heterogeneous similarity Graph Neural Network (HSGNN) を提案する。 0.91
It consists of two parts: the preprocessing step and the end-to-end model. これは前処理ステップとエンドツーエンドモデルという2つの部分から構成される。 0.64
In the preprocessing step, we first construct the heterogeneous EHR graph, and then split it into multiple homogeneous subgraphs according to the weight assigned to each edge. 前処理ステップでは、まず不均質なehrグラフを構築し、次に各エッジに割り当てられた重みに応じて複数の均質な部分グラフに分割する。 0.72
By doing so, we eliminate the noise in the original heterogeneous graph while preserving its structural information. これにより、構造情報を保存しながら、元の異種グラフのノイズを除去する。 0.73
After preprocessing step, each subgraph contains 前処理ステップの後、各サブグラフは 0.65
partial information of the original graph. 元のグラフの部分的な情報です 0.78
Then in the end-toend model, we try to combine all subgraphs together into one integrated homogeneous graph Ameta so that it can be input into any general GNN layers to make downstream predictions. そして、エンド・ツー・エンド・モデルにおいて、全ての部分グラフを1つの統合同質グラフ Ameta に統合し、任意の一般的なGNN層に入力して下流予測を行う。 0.68
Inspired by [15], we set all weights in Ameta as trainable variables but not fixed values. 我々は[15]にインスパイアされ、Ametaのすべての重みをトレーニング可能な変数として設定したが、固定値ではない。 0.56
It means all weights in Ameta are randomly initialized before training, and are optimized during the model training process. つまり、Ametaの全重量はトレーニング前にランダムに初期化され、モデルトレーニングプロセス中に最適化される。 0.78
Compared with previous models, HSGNN has these innovations: First, to the best of our knowledge, this is the first study that uses heterogeneous graph structure to represent EHR data, which can preserve the most information. HSGNNは、従来のモデルと比較して、これらのイノベーションを持っている: 第一に、私たちの知る限りでは、異質なグラフ構造を使って、最も多くの情報を保存できるEHRデータを表現する最初の研究である。 0.63
Second, in the preprocessing step, HSGNN uses similarity values to represent the weights in the graph. 第二に、前処理ステップでは、HSGNNはグラフの重みを表現するために類似度値を使用する。
訳抜け防止モード: 第二に、前処理ステップでは、HSGNNは類似度値を使用する グラフの重みを表すためです
0.73
This method is proved effective in the experiments to reduce over-smoothing. この方法は過剰なスムーシングを減らす実験で有効であることが証明された。 0.56
Third, we use trainable weights and construct a new graph in HSGNN, which can reveal true relationship between each nodes. 第3に、トレーニング可能な重みを使い、HSGNNで新しいグラフを構築し、各ノード間の真の関係を明らかにする。 0.71
To demonstrate the advantages of HSGNN, we evaluate its performance on the MIMIC-III dataset. HSGNNの利点を実証するため,MIMIC-IIIデータセットの性能評価を行った。 0.78
On the diagnosis prediction task, HSGNN outperforms all other baseline approaches and achieves state-of-the-art performance. 診断予測タスクでは、HSGNNは他のすべてのベースラインアプローチより優れ、最先端のパフォーマンスを達成する。 0.58
We also prove the effectiveness of using similarity values by comparing HSGNN with a variant that uses P athCounts as graph weights. また, HSGNNとP athCountsをグラフ重みとして用いた変種との比較により, 類似度値の有効性を示す。 0.77
Finally, we visualize the structure of learned graph to prove that HSGNN can learn a new graph with higher quality. 最後に、学習グラフの構造を可視化し、HSGNNがより高い品質で新しいグラフを学習できることを証明する。 0.83
Conclusively, we make the following contributions in this paper: 結論として、本稿では以下の貢献をしている。 0.60
• We propose a novel framework HSGNN, which can learn informative representations for medical codes and make predictions for patients in EHR. そこで我々は, 医療用コードに対する情報表現を学習し, EHR患者の予測を行う新しいフレームワークHSGNNを提案する。 0.79
• We use the similarity subgraphs generated from original heterogeneous graph as input, which is shown effective to improve the performance of prediction. • 原異種グラフから生成された類似部分グラフを入力とし,予測性能の向上に有効であることを示す。 0.82
• We propose an end-to-end model that can jointly learn high-quality graph embeddings based on similarity subgraphs and make accurate predictions . • 類似性サブグラフに基づいて高品質なグラフ埋め込みを共同学習し,正確な予測を行うエンドツーエンドモデルを提案する。 0.76
• Experimental results show the superiority of our proposed model on the diagnosis prediction task. • 診断予測課題における提案手法の優位性を示す実験結果を得た。 0.76
Experiments also prove the effectiveness of using similarity subgraphs and the quality of learned graph embeddings. 実験はまた、類似性部分グラフの使用の有効性と学習済みグラフ埋め込みの品質を証明する。 0.72
The code of our proposed HSGNN is available at https: 提案するhsgnnのコードは、httpsで利用可能です。 0.60
//github.com/ErikaLi u/HSGNN. github.com/erikaliu/ hsgnn 0.31
II. RELATED WORKS Since EHR analysis is an interdisciplinary topic, many studies are related to our work. II。 関連作業 EHR分析は学際的な話題であるため、多くの研究が我々の研究に関連している。 0.63
In this section, we only choose the most representative and inspiring studies. この節では、最も代表的で刺激的な研究のみを選択します。 0.58
These studies mainly focus on four aspects: 1. これらの研究は主に4つの側面に焦点を当てている。 0.60
Graph Neural Networks, 2. Graph Neural Networks, 2。 0.83
GNN-based EHR analysis, 3. heterogeneous graph neural networks and 4. some studies of the nature of graph. GNNに基づくEHR解析 3. 異種グラフニューラルネットワークと4. グラフの性質に関するいくつかの研究 0.85
A. Graph Neural Networks A. グラフニューラルネットワーク 0.87
Currently, Graph Neural Networks (GNNs) have been widely explored to process graph-structure data. 現在、グラフ構造データを処理するためにグラフニューラルネットワーク(GNN)が広く研究されている。 0.72
Motivated by convolutional neural networks, Bruna et al [25] propose graph convolutions in spectral domain. 畳み込みニューラルネットワークに動機づけられたbrunaら[25]は、スペクトル領域のグラフ畳み込みを提案する。
訳抜け防止モード: 畳み込みニューラルネットワークによるモチベーション Bruna et al [ 25 ] はスペクトル領域におけるグラフ畳み込みを提案する。
0.74
Then, Kipf and Welling そしてKipfとWelling 0.43
英語(論文から抽出)日本語訳スコア
[26] simplified the previous graph convolution operation and designed a Graph Convolutional Network (GCN) model. [26]従来のグラフ畳み込み操作を単純化し,グラフ畳み込みネットワーク(gcn)モデルを設計した。 0.80
Besides, to inductively generate node embeddings, Hamilton et al propose the GraphSAGE [27] model to learn node embeddings with sampling and aggregation functions. さらに,ノード埋め込みを帰納的に生成するために,サンプルと集約関数を用いたノード埋め込み学習のためのGraphSAGE [27]モデルを提案する。 0.77
All these models have shown their performance on many tasks [28], [29], [30], [31], [32]. これらのモデルはすべて、[28], [29], [30], [31], [32]でパフォーマンスを示しています。
訳抜け防止モード: これらのモデルはすべて、多くのタスク[28]でパフォーマンスを示しています。 [ 29 ], [ 30 ], [ 31 ], [ 32 ] .
0.86
B. GNN-based EHR analysis B. GNNに基づくEHR分析 0.72
Previously, many studies use RNNs to analyse EHR [9], [10], [11]. これまで、多くの研究がRNNを使ってEHR [9], [10], [11]を分析してきた。 0.69
However, with the improvement of graph neural networks [26], [33], [27], many approaches develop GNNs to analyse EHR [14], [15], [16], [34]. しかし、グラフニューラルネットワーク [26], [33], [27] の改善により、多くの手法が ehr [14], [15], [16], [34] の解析のために gnn を開発した。 0.77
These models can capture structural information from raw EHR and thus outperform previous approaches. これらのモデルは生のeerから構造情報を取り込み、それゆえ以前のアプローチを上回ることができる。 0.51
Among these models, GRAM [16] and KAME [14] use GNNs to process external hierarchical ontologies. これらのモデルの中で、GRAM [16] と KAME [14] は、外部階層的オントロジーを処理するために GNN を使用します。 0.62
They can learn embeddings for medical codes in the ontologies and then these embeddings can be used for downstream tasks. 彼らはオントロジー内の医療コードの埋め込みを学び、それらの埋め込みをダウンストリームタスクに使用できる。 0.64
MiME [17] and GCT [15] assume that there are some latent causal relations between different kinds of medical codes in EHR. MiME [17] と GCT [15] は, EHR には様々な種類の医療基準の間に因果関係があることを仮定している。 0.81
Based on this assumption, MiME learns multilevel representations in a hierarchical order and GCT can jointly learn the hidden causal structure of EHR while performing predictions. この仮定に基づいて、MMEは階層的な順序でマルチレベル表現を学習し、GCTは予測を行いながら、EHRの隠れ因果構造を共同で学習することができる。 0.63
Above studies only focus on homogeneous graphs, while raw EHRs contain multiple kinds of medical codes and thus are naturally heterogeneous. 上記の研究は同質グラフにのみ焦点をあてるが、生の EHR には複数の種類の医療コードが含まれており、したがって自然に異種である。 0.57
This fact provides us with opportunities to model EHR with heterogeneous graphs. この事実は、異種グラフでEHRをモデル化する機会を与えてくれます。 0.63
C. Heterogeneous Graph Neural Networks C. 異種グラフニューラルネットワーク 0.86
According to [35], a heterogeneous information network (HIN) is an information network with multiple kinds of nodes and edges. [35]によると、異種情報ネットワーク(HIN)は、複数の種類のノードとエッジを持つ情報ネットワークである。 0.84
To process HIN, a key issue is to deal with the heterogeneity of the network. hinを処理するには、ネットワークの異質性に対処することが鍵となる。 0.68
Here we introduce some methods in the previous studies to eliminate the heterogeneity of the network. 本稿では,ネットワークの不均一性を排除するための手法をいくつか紹介する。 0.63
HAN [18] is the first study using graph attention network to process heterogeneous graphs. HAN[18]は異種グラフを処理するためにグラフ注意ネットワークを用いた最初の研究である。 0.74
MAGNN [20] is another recent study proposing aggregators to make inductive learning on heterogeneous graphs. MAGNN[20]は、異種グラフ上で帰納学習を行うアグリゲータを提案する最近の研究である。 0.66
Both of these two models use meta-path when processing heterogeneous graphs since it can capture meaningful patterns in the graph. これら2つのモデルは、グラフ内の意味のあるパターンをキャプチャできるため、異種グラフを処理する際にメタパスを使用する。 0.63
Also, both of their models consists of two modules: the meta-path level GNN and the node level GNN, which can aggregate node features hierarchically. また、どちらのモデルもメタパスレベルGNNとノードレベルGNNの2つのモジュールで構成されており、ノードの特徴を階層的に集約することができる。 0.74
HetGNN [19] proposes another method to eliminate the heterogeneity, which uses random walk and type-based aggregators. HetGNN [19] は、ランダムウォークとタイプベースのアグリゲータを用いた異種性を除去する別の方法を提案する。 0.61
However, in the experiment we find that these methods do not perform ideally because they did not deal with nodes with different visibility properly. しかし、実験では、異なる可視性を持つノードを適切に扱わなかったため、これらの手法が理想的ではないことが判明した。
訳抜け防止モード: しかし実験では これらの方法は、異なる可視性を持つノードを適切に処理しなかったため、理想的には機能しない。
0.74
D. Over-smoothing and Node Visibility D.オーバースムーシングとノード可視性 0.69
According to [23], after applying GNN with multiple layers, the derived node embeddings will become closer to each other and finally indistinguishable. 23]によると、複数のレイヤでGNNを適用すると、導出ノードの埋め込みが互いに近づき、最終的に区別不能になる。 0.63
This is called over-smoothing and [23] is the first work discover this phenomenon. これはオーバー・スムーシングと呼ばれ、[23]がこの現象を発見した最初の研究である。 0.63
TABLE I: Notations TABLE I: Notations 0.85
Notation ni φ(·) 表記 ni φ(·) 0.71
P athCountp(·, ·) or P Cp(·, ·) P athCountp(·, ·) または P Cp(·, ·) 0.69
SP Sp(·, ·) SP Sp(·, ·) 0.64
Ak F K N Ameta Fmeta w or W Ak F K N Ameta Fmeta w または W 0.91
Ω meta GN Nk(·, ·) Ω meta GN Nk(·, ·) 0.76
AGGREGAT ORF (·) AGGREGAT ORF (·) 0.85
Explanation Node i in the heterogeneous EHR graph. ヘテロジニアス EHR グラフにおける説明ノード i。 0.78
Mapping function to retrieve the type of node. ノードの型を取得するためのマッピング関数。 0.79
PathCount w.r.t meta-path p. Symmetric PathSim w.r.t meta-path p. The k-th input adjacency matrix. PathCount w.r.t meta-path p. Symmetric PathSim w.r.t meta-path p. k-th input adjacency matrix 0.62
The input node features. Number of meta-paths. 入力ノードの特徴。 メタパスの数。 0.73
Number of nodes in the graph. グラフ内のノードの数。 0.75
The fused adjacency matrix. The aggregated node features. 融合した隣接行列 集約されたノードの特徴。 0.55
Parameters used to derive Ameta. パラメータはametaに由来する。 0.74
Parameters used to derive W . W を導出するのに用いられるパラメータ。 0.60
meta GNN module for the k-th meta-path. meta GNN module for the k-th meta-path 0.84
Aggregation function to derive Fmeta. fmetaを導出する集約関数。 0.74
Recently, the causes of this phenomenon are still being investigated and some studies are trying to resolve it. 近年,この現象の原因が調査されており,その解決を試みている研究もある。 0.83
For example, [36] discovers row-level and col-level over-smoothing because information wrongly spread through nodes and features. 例えば [36] は、情報がノードや機能に誤って拡散するため、行レベルとcolレベルのオーバースムーシングを検出する。 0.63
Another study [24] attribute over-smoothing to the noise in the network. 別の研究[24]は、ネットワークのノイズを過度に抑制している。 0.69
Nevertheless, these different explanations may direct to the same reason. しかし、これらの異なる説明は同じ理由に繋がる可能性がある。 0.65
That is, the structural information of the graph may not accurate enough, making information spread to wrong nodes or wrong features through GNN. つまり、グラフの構造情報は十分正確ではなく、間違ったノードに情報を広めたり、GNNを通じて間違った特徴を広めたりする。 0.73
Therefore, correct the “wrong edges” in the graph is a possible way to overcome over-smoothing. したがって、グラフの“めちゃくちゃなエッジ”を正すことは、過剰なスムーシングを克服する可能性がある。 0.63
On the other hand, many traditional studies focus more on the nature of graph [21], [22]. 一方、多くの伝統的な研究はグラフの性質に焦点を当てている [21], [22]。 0.77
These research propose the concept “node visibility” to measure the influence of one node on the whole graph. 本研究では,ノードがグラフ全体に与える影響を測定するために,ノード可視性の概念を提案する。 0.81
Generally, the degree of the node can be used to measure the visibility of it. 一般に、ノードの程度は、その可視性を測定するのに使うことができる。 0.79
If one node have many neighbors, it can influence more other nodes and making itself “visible” in the whole graph. ひとつのノードに多くの隣接ノードがある場合、他のノードにも影響を与え、グラフ全体に“可視”することができる。 0.74
In GNNs, the existence of these highly visible nodes is one reason of over-smoothing because they can result in multiple nodes having similar embeddings. GNNでは、これらの高度に可視なノードの存在は、複数のノードが同様の埋め込みを持つ可能性があるため、オーバースムーシングの理由の1つである。
訳抜け防止モード: GNNでは、これらの高可視ノードの存在がオーバーの理由の1つです。 同様の埋め込みを持つ複数のノードが生まれます
0.76
III. METHODS HSGNN consists of two parts: one is preprocessing step that splits the heterogeneous graph into multiple subgraphs; and the other is an end-to-end graph neural network that takes multiple graphs as input. III。 方法 hsgnnは、ヘテロジニアスグラフを複数のサブグラフに分割する前処理ステップと、複数のグラフを入力とするエンドツーエンドのグラフニューラルネットワークの2つで構成されている。 0.67
In the first part, we introduce the definition of heterogeneous EHR graph, meta-path and symmetric PathSim (SPS). まず、異種EHRグラフ、メタパス、対称パスシム(SPS)の定義を紹介する。
訳抜け防止モード: まず、異種EHRグラフの定義を紹介する。 meta - path と symmetric PathSim (SPS )。
0.59
In the second part, we provide the forward propagation rules of our model. 第2部では,モデルの前方伝播ルールについて述べる。 0.63
In this section we use the EHR with the same structure as Fig 1 to introduce our model. このセクションでは、モデルを導入するために、Fig 1と同じ構造を持つEHRを使用します。 0.64
A. Similarity Subgraph Construction via Meta-path A.メタパスによる類似部分グラフの構築 0.53
Since the heterogeneous EHR graph consists of multiple types of node and edge, traditional GNN cannot process it directly. 異種EHRグラフは複数のノードとエッジから構成されるため、従来のGNNでは直接処理することはできない。 0.75
A approach is to process each node in the graph according to the node types[19]. アプローチは、[19]ノードの種類に応じてグラフの各ノードを処理することである。 0.88
However, the links between different types of nodes can form some unique patterns and may possess specific meaning. しかし、異なるタイプのノード間のリンクはいくつかのユニークなパターンを形成し、特定の意味を持つ可能性がある。 0.63
Therefore, we introduce metapath to process the heterogeneous graph and then calculate similarities between nodes along with each meta-path. そこで,異種グラフの処理にメタパスを導入し,各メタパスとノード間の類似性を計算する。 0.77
英語(論文から抽出)日本語訳スコア
Fig. 2: The proposed HSGNN framework. フィギュア。 2:HSGNNフレームワークの提案。 0.55
Heterogeneous EHR graph is preprocessed by calculating SPS along with each meta-path (the dash box) and then input into the end-to-end model (the solid box). 不均一なEHRグラフは、各メタパス(ダッシュボックス)と共にSPSを計算し、次にエンドツーエンドモデル(ソリッドボックス)に入力することで前処理される。 0.66
Here we take meta-path V-D-V as an example to explain SPS. ここでは、SPSを説明する例としてメタパスV-D-Vを挙げる。 0.56
The 1st and 2nd visits of patient 1 have one common diagnosis in total, and therefore the numerator of similarity between them is 1*2=2. 第1患者と第2患者は、合計で1つの共通の診断を受けており、両者の類似度は1*2=2である。 0.80
Besides, they have 4 diagnosis neighbors in total, and thus the denominator is 4. さらに,4つの診断近傍があり,分母は4である。 0.62
The similarity of these two nodes along with meta-path V-D-V is 1/2. これら2つのノードとメタパスV-D-Vの類似性は1/2である。 0.56
a) Heterogeneous EHR Graph: As shown in left part of Fig 1, a heterogeneous EHR graph consists of medical information from all patients. a)異種EHRグラフ:図1の左側に示すように、異種EHRグラフは、全患者の医療情報からなる。 0.75
There are four kinds of nodes in the graph, patient c, visit v, diagnosis d and medication m. Formally, we use S = C + V + D + M to represent the set of all nodes in the graph, where C, V , D and M correspond to sets of patients, visits, diagnoses and medications. 正式には、我々は、S = C + V + D + M を用いてグラフ内の全てのノードの集合を表し、C, V , D および M は、患者、訪問、診断、薬品の集合に対応する。
訳抜け防止モード: グラフには4種類のノード、患者cがある。 グラフ内のすべてのノードの集合を表すために、S = C + V + D + M を用いる。 C、V、D、Mは患者のセット、訪問、診断、医薬品に対応している。
0.64
For each node n ∈ S, we also define a mapping φ(n) ∈ {“C”, “V ”, “D”.“M ”} to find its type. 各ノード n ∈ s に対して、その型を見つけるための写像 φ(n) ∈ {{c}, “v ”, “d”.[m }} を定義する。 0.66
b) Meta-path: A meta-path p = t1t2 ··· tn is a sequence where t ∈ {“C”, “V ”, “D”.“M ”}. b) メタパス: メタパス p = t1t2 ··· tn は t ∈ {“C”, “V ”, “D”.“M ”} の列である。 0.84
It can represent a pattern of node types in a given path. 与えられたパスでノードタイプのパターンを表現することができる。 0.84
For example, a meta-path ”V DV ” denotes the pattern of “visit node - diagnosis nodevisit node” in the heterogeneous graph, and the path “patient 1’s 1st visit - headache - patient 2’s 1st visit” is an instance of this meta-path. 例えば、メタパス “v dv ” は異種グラフにおける"visit node - diagnostic nodevisit node" のパターンを表し、"患者1's 1st visit - headache - patient 2's 1st visit" はこのメタパスの例である。 0.80
c) PathCount: Suppose we have two nodes ni, nj ∈ S and a meta-path p = t1t2 ··· tn where φ(ni) = t1 and φ(nj) = tn. c) パスカウント: 2つのノード ni, nj ∈ s とメタパス p = t1t2 ···· tn ここで φ(ni) = t1 と φ(nj) = tn と仮定する。 0.79
The P athCount (shortened as P C) of ni, nj w.r.t. ni, nj w.r.t の P athCount (P C と略される)。 0.78
p is a function of the number of meta-path instances between node pairs. p はノードペア間のメタパスインスタンス数の関数である。 0.71
For example, in Fig 2 the P C under mata-path “DVM” between node pair (“headache”,“benzodiazepines”) is 2, since they have 2 common visit neighbors. 例えば、図2では、ノードペア("headache"、"benzodiazepines" ;)間のマタパス"DVM"の下のPCは2である。
訳抜け防止モード: 例えば、図2では、ノードペア(「頭痛」、「ベンゾジアゼピン」)間の行列-経路「DVM」の下のPCは2である。 隣人が2人いるから。
0.67
d) Symmetric PathSim (SPS): d) 対称パスシム(SPS) 0.67
Inspired by [21], we propose the symmetric PathSim (SPS) used to measure the similarity of a node pair (ni, nj) under a specific meta-path p in the heterogeneous graph. 21] に触発されて,不均質グラフにおける特定のメタパス p の下でのノード対 (ni, nj) の類似性を測定するための対称パスsim (sps) を提案する。 0.82
SP Sp(ni, nj) = SP Sp(ni, nj) = 0.85
P Cp(ni, nj) + P Cp(nj, ni) P Cp(ni, ni) + P Cp(nj, nj) P Cp(ni, nj) + P Cp(nj, ni) P Cp(ni, ni) + P Cp(nj, nj) 0.85
. (1) Basically, when the P C between two nodes is higher, these two nodes tend to have a stronger relation. . (1) 基本的に、2つのノード間のPCが高い場合、2つのノードはより強い関係を持つ傾向がある。 0.79
However, some nodes may have higher degree but are less important. しかし、いくつかのノードは、より高い次数を持つが、重要度は低い。 0.51
For example, a node denoting gender “female” may link to half of the patient nodes in the graph, but the effect of gender on medication is much less than the effect of diagnosis. 例えば、性別を表すノードは、グラフ内の患者のノードの半分にリンクすることがあるが、薬物に対する性別の影響は診断の効果よりもはるかに少ない。 0.72
To eliminate the influence of nodes with high visibility (degree) and low importance, SPS normalizes the P C with the sum of ni and nj’s self loop count. へ 可視性(度数)が高く重要度の低いノードの影響を取り除き、spsはp cをniとnjの自己ループ数の総和で正規化する。
訳抜け防止モード: へ 高い可視性(程度)と低い重要性を持つノードの影響を排除します。 SPS は ni と nj の自己ループ数 の和で P C を正規化する。
0.70
SPS is symmetric, which means SP Sp(ni, nj) = SP Sp(nj, ni). SPS は対称であり、SP Sp(ni, nj) = SP Sp(nj, ni) を意味する。 0.88
In the preprocessing step, we construct the heterogeneous EHR graph and calculate the similarities of all node pairs under a group of meta-paths P = {p1, p2,··· pK} (the similarity of two nodes is set to 0 if their node types are not applicable to the mata-path). 前処理ステップでは、不均一な EHR グラフを構築し、メタパス P = {p1, p2,··· pK} の群の下で全てのノードペアの類似性を計算する(ノードタイプがマタパスに当てはまらない場合、2つのノードの類似性は 0 に設定される)。 0.85
After this step, we can obtain a series of symmetric similarity matrices A = {A1, A2,··· , AK} where K is both the number of meta-paths and the number of similarity matrices. このステップの後、一連の対称類似度行列 a = {a1, a2,···· , ak} を得ることができ、k はメタパスの数と類似度行列の数の両方である。 0.76
The size of each matrix Ai in A is N × N, where N = |S| is the number of nodes. A における各行列 Ai のサイズは N × N であり、N = |S| はノードの数である。 0.89
In this way, the heterogeneous graph is split into multiple homogeneous graphs and each homogeneous graph contains partial information of the original graph. このように、不均一グラフは複数の同次グラフに分割され、各同次グラフは元のグラフの部分情報を含む。 0.78
B. Heterogeneous Similarity Graph Neural Network B.異種類似グラフニューラルネットワーク 0.80
The solid box in Fig 2 shows the architecture of our proposed HSGNN. 図2のソリッドボックスは、提案したHSGNNのアーキテクチャを示しています。 0.66
The preprocessing step derives multiple homogeneous graphs with meta-path and then we take them as inputs of HSGNN. 前処理ステップはメタパスを持つ複数の同質グラフを導出し,HSGNNの入力として利用する。 0.70
The primary goal of HSGNN is to fuse the homogeneous graphs into one graph Ameta containing true relations between each node pair. HSGNNの第一の目的は、各ノード間の真の関係を含む1つのグラフ Ameta に同質グラフを融合することである。
訳抜け防止モード: hsgnnの主な目標は 各ノード対間の真の関係を含む1つのグラフametaに均質なグラフを融合する。
0.79
Then, Ameta can be used for later general GNN layers such as Graph Convolutional Network (GCN) [26] or for other downstream tasks. 次に、Ametaは、Graph Convolutional Network (GCN) [26] のような後の一般的なGNN層や、他の下流タスクに使用できる。 0.71
To achieve this goal, suppose the initial node feature matrix is F and the K input graphs are A = {A1, A2,··· , AK}, here we propose several variants of HSGNN. この目的を達成するために、初期ノード特徴行列が F であり、K の入力グラフが A = {A1, A2,·· , AK} であると仮定する。 0.65
1) Simply Weighted Sum: A straightforward approach is to 1) 単純な重み付け Sum: 簡単なアプローチは 0.75
use weighted sum: 重み付き和を使用する: 0.46
K(cid:88) k=1 k(cid:88) k=1 0.69
Ameta = wkAk (2) アメタ= wkAk (2) 0.79
Heterogeneous EHR Graph Patient Visit Diagnosis Medicationmeta-pathV DVmeta-pathMVmeta-pa thP2/42/32/34/42/42/ 3Similarity Subgraph Construction via Meta-pathSymmetric PathSim……HSGNNPreprocessingEn d-to-end ModelInputDMV2/32/5P atient 1Patient 21st visit2nd visit1st visitBenzodiazepines InsomniaPalpitationH eadacheIbuprofenSimi larity SubgraphsNode Feature…A1 A2 An meta-GNN2 meta-GNN1 meta-GNNn ……GNNŷLearn an new graphbased on all subgraphsAttentionA1 A2 …An Attention hsgnnpreprocessingen d-to-end modelinputdmv2/32/5p atient 1patient 21st visit2nd visit1st visitbenzodiazepines inomiumpalpitationhe adacheibuprofen similarity subgraphsnode feature...a1 a2 an meta-gnn2 meta-gnn1 meta-gnnn ......gnn-learn an new graph based on all subgraphsattentiona1 a2 ...an attention (英語) 0.34
英語(論文から抽出)日本語訳スコア
Fig. 3: A dissection of Ameta. フィギュア。 3: ametaの解剖。 0.52
(cid:80)K where wk is a trainable scalar weight of matrix Ai and k=1 wk = 1. (cid:80)k ここで wk は行列 Ai と k=1 wk = 1 の訓練可能なスカラーウェイトである。 0.70
An advantage of this approach is its simplicity. このアプローチの利点は単純さである。 0.76
However, this method assumes the effect of one meta-path keeps constant over all nodes in the graph, regardless the uniqueness of each node. しかし,本手法では,各ノードの特異性に関わらず,グラフ内のすべてのノードに対して,一つのメタパスが一定に保たれていることを仮定する。 0.63
For example, to predict the condition of a patient, doctors may rely on different medical codes when making decisions. 例えば、患者の状態を予測するために、医師は意思決定時に異なる医療コードに依存することがある。 0.75
Since medical codes correspond to different meta-paths, we need to adjust weight scalars on each node pair. 医療コードは異なるメタパスに対応するため、各ノード対の重みスカラーを調整する必要がある。 0.70
2) Attention Sum: We have a node feature matrix F as the input, and it can help us learn the proper weights of each graph. 2) 注意和: 入力としてノード特徴行列fがあり、各グラフの適切な重み付けを学ぶのに役立ちます。 0.72
Since we want to assign a unique weight for each node pair under each meta-path, the weight tensor can be denoted as W ∈ [0, 1]K×N×N and each element wkij in it means the attention weight under node pair (ni, nj) on the k-th meta- それぞれのメタパスの下に各ノード対に一意の重みを割り当てたいので、重みテンソルは W ∈ [0, 1]K×N×N と表すことができ、各要素 wkij はk番目のメタのノード対 (ni, nj) の下にある注意重みを意味する。 0.80
path. Similarly, we need to make sure(cid:80)K パス 同様に、(cid:80)K を確実にする必要がある。 0.54
k=1 wkij = 1. k=1 wkij = 1。 0.86
We adopt a one-layer feed forward neural network to calculate the attention value wkij. 我々は,一層フィードフォワードニューラルネットワークを用いて注意値wkijを計算する。 0.70
The neural network takes two node features fi and fj ∈ F as the input, and outputs the weight of this node pair on all graphs. ニューラルネットワークは2つのノードの特徴fiとfj ∈ fを入力とし、このノード対の重みをすべてのグラフに出力する。 0.81
Formally, we have: wk,i,j = softmaxk(attij) = 形式的には: wk,i,j = softmaxk(attij) = 0.67
(cid:80)K exp(σ(ωT l=1 exp(σ(ωT (cid:80)k exp(σ(ωT l=1 exp(σ(ωT)) 0.80
k [fi||fj])) k [fi||fj]) 0.88
l [fi||fj])) l[fi||fj]) 0.83
. (3) In Eq (3), fi and fj are feature vectors of node ni and nj and || denotes concatenation operation. . (3) eq (3) では、fi と fj はノード ni と nj の特徴ベクトルであり、|| は連結演算を表す。 0.82
Ωatt = {ω1; ω2;··· ; ωK} is the parameter set of the neural network. Ωatt = {ω1; ω2;··· ; ωK} はニューラルネットワークのパラメータ集合である。 0.82
After obtaining wkij, we can get Ameta: wkijを得た後、Ametaを入手できます。 0.70
Ameta = Wk ◦ Ak アメタ= Wk (複数形 Wks) 0.47
(4) where Wk means the k-th N×N matrix in W and ◦ means (4) ここで Wk は W の k 番目の N×N 行列であり、 0.78
element-wise multiplication. element-wise multiplication 0.83
This equation adjusts personalized weights for different node pairs based on node features. この方程式は、ノードの特徴に基づいて異なるノードペアのパーソナライズされた重み付けを調整する。 0.55
However, this approach fails to improve the performance in the experiments. しかし、このアプローチは実験のパフォーマンスを改善するには至らなかった。 0.68
The reason is that, the node feature F we use in the experiments is not informative, and thus it can introduce noise into the model, and prevent it from learning meaningful attention weights. 理由は、実験で使用するノード特徴Fは情報的ではないため、モデルにノイズを導入し、意味のある注意重みを学習するのを防ぐことができるからです。 0.77
To address this issue, we need to let the node features firstly learn この問題に対処するためには、まずノード機能を学習させなければなりません。 0.56
K(cid:88) k=1 k(cid:88) k=1 0.69
from A, and then use them to generate meaningful attention weights. Aから、そしてそれを使って意味のある注意重みを生成します。 0.59
3) Aggregated Attention Sum: After learning from A to obtain a more informative node feature matrix Fmeta, we use Fmeta to generate the attention weights of graph aggregation. 3) Aから学習し,より情報性の高いノード特徴行列Fmetaを得ると,Fmetaを用いてグラフ集約の注意重みを生成する。
訳抜け防止モード: 3) Aggregated Attention Sum : After Aから学び、より情報性の高いノード特徴行列Fmetaを得る グラフ集約の注意重みを生成するためにFmetaを使用します。
0.87
Motivated from [18], in this step we apply GNN on each graph to obtain multiple features for each node. このステップでは、各グラフにGNNを適用して、各ノードの複数の機能を取得します。 0.70
Formally, for k ∈ {1, 2,··· , K} we have: 形式的には、k ∈ {1, 2,··· , k} に対して: 0.78
F (0) k = meta GN Nk(F , Ak) F (0) k = meta GN Nk(F , Ak) 0.85
(5) where meta GN N can be any kind of GNN layers. (5) メタGN Nは任意の種類のGNNレイヤとなる。 0.80
In the next step, to learn the node feature matrix Fmeta, we use では 次のステップはnode feature matrix fmetaを学習するために 0.67
Fmeta = AGGREGAT ORF ([F (0) (6) where AGGREGAT ORF is the aggregation function, which can be Graph Attention Network (GAT) [33]. Fmeta = AGGREGAT ORF ([F (0) (6) ここでAGGREGAT ORFは集約関数であり、グラフ注意ネットワーク(GAT)[33]となる。 0.74
Here we can also use some other operations such as concatenate or average F (0) ここでは、concatenate や average f (0) といった他の操作も使用できます。 0.77
,··· , F (0) ・··· , F (0) 0.89
; F (0) , F (0) ; F (0) , F (0) 0.85
K ]), K together. K])。 kを一緒に 0.53
When we get the Fmeta, we can use Eq 3 to learn the Fmetaを手に入れると、Eq 3を使って学習できます。 0.80
1 2 1 2 ;··· ; F (0) 1 2 1 2 ···· ; F (0) 0.85
attention weights on graphs: グラフの注意重み付け: 0.73
(cid:80)K wk,i,j = softmaxk(metaattij) = exp(σ(ωT l=1 exp(σ(ωT (cid:80)k wk,i,j = softmaxk(metaattij) = exp(σ(ωT l=1 exp(σ(ωT)) 0.88
i j l [f meta i j l [f meta] 0.88
])) ||f meta ||f meta ]) ||f メタ |f メタ 0.72
k [f meta ])) k[f]メタ ])) 0.64
. j i (7) . j 私は (7) 0.77
Many kinds of operations and aggregators can be used as AGGREGAT ORF . 多くの種類の操作やアグリゲータをAGGREGAT ORFとして使用することができる。 0.65
Here we provide several options which are compared in the experiments. ここでは,実験で比較されるいくつかの選択肢を提案する。 0.62
Suppose previously we ,··· , F (0) obtain K node feature matrices F (0) K , we propose the following aggregation functions in our model. 予め we ,··· , F (0) が K ノード特徴行列 F (0) K を得ると仮定すると、本モデルでは以下の集合関数を提案する。 0.88
, F (0) 1 2 , F (0) 1 2 0.85
• Mean operation. That is, ・平均運転。 その通りです。 0.49
Fmeta = K(cid:88) フェメタ= k(cid:88) 0.68
k=1 . • Concatenation operation. k=1 . •連結操作。 0.69
That is, F (0) その通りです。 F (0) 0.70
k /K (8) Fmeta = CON CAT ([F (0) k/K (8) Fmeta = CON CAT ([F (0)) 0.82
1 ; F (0) 2 1 ; F (0) 2 0.85
;··· ; F (0) K ]) ··· ; F (0) K ] 0.75
(9) . P1_1st VisitP2P1P1_2nd VisitP2_1st VisitInsomniaPalpita tionHeadacheBenzodia zepinesIbuprofenP1_1 st VisitP2P1P1_2nd VisitP2_1st VisitInsomniaPalpita tionHeadacheBenzodia zepinesIbuprofen Patient Visit Diagnosis MedicationAmeta human-medical code relationship(update for new patients)medical code-medical code relationship(fixed after training)human-human relationship(set as 0s) (9) . P1_1st visitP2P1P1P1_2nd visitP2_1st visitInsomniaPalpita tionHeadacheBenzodia zepinesIbuprofenP1_1 st VisitP2P1P1_2nd visitP2_1st visitInsomniaPalpita tionHeadacheBenzodia zepinesIbuprofen patient visit Medicine MedicalcationAmeta Human-medical code relationship(新規患者向け) 医療コードコード関連(訓練後固定) 0.67
英語(論文から抽出)日本語訳スコア
After obtaining Fmeta and Ameta, we use general GNN layers such as GCN [26] and GAT [33] to derive final predictions. Fmeta と Ameta を得た後、GCN [26] や GAT [33] といった一般的な GNN 層を用いて最終的な予測を導出する。 0.73
C. Quick Inference When New Records Coming 新しいレコードが登場するときのC.クイック推論 0.64
Basically, HSGNN needs all nodes in the graph to present during training and thus is transductive. 基本的に、HSGNNはトレーニング中にグラフに現れるすべてのノードを必要としているため、トランスダクティブである。
訳抜け防止モード: HSGNNは基本的に、トレーニング中にグラフに表示されるすべてのノードを必要とする トランスダクティブです
0.75
According to [27], transductive GNN cannot handle new nodes and edges without re-training. 27] によると、トランスダクティブgnnは再トレーニングせずに新しいノードやエッジを処理できない。 0.69
However, there is a special characteristic of EHR graph: the number of all medical code nodes, such as diagnosis node and medication node, keep almost constant in all EHR graphs. しかしながら、EHRグラフには特別な特徴がある:診断ノードや治療ノードなど、すべての医療コードノードの数は、すべてのEHRグラフでほぼ一定である。 0.85
The total number of all diagnoses, medications, procedures and lab tests in real-world dataset is about 5000 and they seldom change. 実世界のデータセットにおける全ての診断、薬、手順、検査の総数は約5000で、ほとんど変化しない。 0.74
This number is relatively small and their similarities can be easily stored in the memory. この数は比較的小さく、その類似性はメモリに簡単に格納できる。 0.76
Another fact is that new coming patients/visits are never isolated, as they always appear with some medical features. もう一つの事実は、新しい患者やビジターは、常にいくつかの医学的特徴を持つため、決して孤立しないということだ。
訳抜け防止モード: もう一つの事実は 新しい患者や訪問は、常にいくつかの医学的特徴と共に現れるため、決して孤立しない。
0.60
In other words, there are always “patient/visit-medica l code” links in the test set. 言い換えれば、テストセットには常に“患者/訪問医療コード”リンクがあります。 0.77
Therefore, using these two properties, we can use HSGNN to infer new patients/visits without re-train the model. したがって、これらの2つの特性を用いて、モデルを再訓練することなく、HSGNNを用いて新規患者・ビジットを推測することができる。 0.52
After the training step, we obtain a well-trained Ameta in HSGNN. トレーニングの後に、HSGNNでよく訓練されたAmetaを得る。 0.70
Since Ameta contains medical relations, it can be used in the inference step. ametaには医療関係が含まれているため、推論ステップで使用できる。 0.76
As shown in Fig 3, when we dissect Ameta, all edges in Ameta can be grouped into three categories. 図3に示すように、Ameta を分解するとき、Ameta のすべての辺は 3 つのカテゴリに分類できる。 0.76
• Medical code-medical code edges. ・医療用コード・コード・エッジ 0.66
Edges between two medical codes such as “diagnosis-medication ” relation reveals the relationship between medical factors. 診断・治療」のような2つの医療コード間の縁は、医療要因間の関係を明らかにする。 0.60
Weights of these edges keep stable after training and can be reused in the inference step. これらのエッジの重みはトレーニング後に安定し、推論ステップで再利用できる。 0.73
• Human-medical code edges. • 医療用コードエッジ。 0.81
These edges represent the relationship between a human (patient/visit node) and a medical code. これらのエッジは、人間(患者/訪問ノード)と医療コードの関係を表す。 0.80
Since human nodes are different in training and testing step, weights of these edges cannot be reused. 人間のノードはトレーニングやテストのステップで異なるため、これらのエッジの重みは再利用できない。 0.71
However, we can calculate these weights in the preprocessing step using testing data under “human··· - medical code” meta-paths. しかし、これらの重みは、"human···- medical code"メタパスでテストデータを使用して前処理ステップで計算できる。 0.69
• Human-human edges. Weights in this part is set to 0s since there is no way to calculate them. ・人間の縁。 この部分のウェイトは、計算する方法がないため、0に設定されている。 0.71
The volume of testing data is relatively small and we still have other edges available, so these 0s won’t interfere prediction. テストデータの量は比較的小さく、他のエッジも利用可能ですので、これらの0は予測を妨げません。 0.74
After obtaining a new Ameta for testing set, we can use general GNNs to predict testing results. テストセット用の新しいAmetaを得た後、一般的なGNNを使用してテスト結果を予測することができる。 0.64
More details about this part will be provided in the experiment section. この部分に関する詳細は、実験セクションで提供される予定である。 0.74
IV. EXPERIMENTS In this section, we conduct experiments on the public MIMIC dataset and show the superiority of HSGNN over other baselines. IV。 実験 本稿では,公開MIMICデータセット上で実験を行い,他のベースラインよりもHSGNNの方が優れていることを示す。 0.66
A. MIMIC-III Dataset A. MIMIC-III データセット 0.56
MIMIC [37], [38] is a publicly available dataset consisting of health records of 46,520 intensive care unit (ICU) patients over 11 years. MIMIC [37], [38] は, 集中治療室(ICU)患者46,520名を対象に, 11年以上にわたる健康記録からなる公開データセットである。 0.79
Table II shows the statistics of the graph we construct and Fig 4 shows the structure of MIMIC-III dataset. 表IIは構築したグラフの統計を示し、図4はMIMIC-IIIデータセットの構造を示している。 0.79
Fig. 4: The data schema of the MIMIC-III network. フィギュア。 4:MIMIC-IIIネットワークのデータスキーマ。 0.56
TABLE II: Node statistics for the MIMIC-III network. TABLE II: MIMIC-IIIネットワークのノード統計。 0.81
MIMIC-III # of code MIMIC-III コード # 0.56
Avg # of the code (for each visit) コードのavg # (各訪問) 0.60
Patient Visit Diagnosis Procedure Medication Lab tests 患者訪問 診断手順 薬剤検査 0.68
Microbiology tests Symptoms 46,520 58,976 微生物試験 症状 46,520 58,976 0.67
203 157 304 480 258 324 203 157 304 480 258 324 0.85
– – 11.20 4.65 23.18 27.55 0.94 19.06 – – 11.20 4.65 23.18 27.55 0.94 19.06 0.64
Raw MIMIC-III data consists of 17 tables, including demographics, laboratory test results, microbiology test results, diagnoses, medications, procedures, medical notes, etc. raw mimic-iiiデータは、人口統計、検査結果、微生物検査結果、診断、医薬品、処置、医療記録など17の表からなる。 0.67
For each patient and visit, there is a unique ID to track its corresponding information through tables. 患者と訪問ごとに、対応する情報をテーブルを通して追跡するユニークなIDがある。 0.83
There are extra tables recording the patient-visit relations, demographics and data dictionaries as well. 患者とビジターの関係、人口統計、データ辞書などの表も追加されている。 0.71
To build a clean and efficient heterogeneous graph based on these data, we mainly do the following things. これらのデータに基づいてクリーンで効率的な異種グラフを構築するために、我々は主に以下のことをする。
訳抜け防止モード: これらのデータに基づいてクリーンで効率的な異種グラフを構築する。 主に以下のことをします
0.72
a) data disambiguation: There are more than 1000 kinds of medications in the original dataset. a) データの曖昧さ: 元のデータセットには1000種類以上の薬物がある。 0.83
Most of them are different abbreviations or preparations of the same medicine. ほとんどが、同じ薬の異なる略語または調合である。 0.63
In the experiment, we disambiguate these medicines by comparing the most common strings in the name of medications and finally extract 304 most common medications. 実験では,薬名において最も一般的な文字列を比較し,最終的に304種類の医薬を抽出することにより,これらの薬剤の曖昧化を図る。 0.64
b) continuous variables bucketization: Lab test results are mostly continuous values. b) 連続変数バケット化: ラボテストの結果は主に連続的な値である。 0.73
Therefore we need to bucketize them into discrete variables and integrate these variables into the graph. したがって、それらを離散変数にバケット化し、これらの変数をグラフに統合する必要があります。 0.61
Some of the entries in the lab test table in MIMICIII contain a “N/A” flag, indicating whether the test result is normal or abnormal. MIMICIIIのラボテストテーブルのいくつかのエントリには"N/A"フラグが含まれており、テスト結果が正常か異常かを示す。 0.74
We then set up two nodes for this lab test representing “normal” and “abnormal”. そして、このラボテストのために2つのノードをセットアップし、”normal”と“abnormal”を表現しました。 0.61
For other lab tests that do not have such an flag, we use the quartiles of the lab test to bucketize the outliers from common values. このようなフラグを持たない他の実験室テストでは、実験室テストの四量体を使って、共通値から外れ値を取り出す。 0.73
Some data engineering works are also conducted in this step to make sure we get sensible thresholds. このステップでは、いくつかのデータエンジニアリング作業も実施され、合理的なしきい値が得られます。
訳抜け防止モード: いくつかのデータエンジニアリング作業もこの段階で行われる。 合理的な閾値が得られます
0.65
c) medical notes preprocessing: There are no symptom records for patients in MIMIC-III, but there exist medical nodes for each visit. c) 医療用ノート前処理:MIMIC-III患者の症状記録はないが、訪問ごとに医療用ノードが存在する。 0.81
Medical notes contain rich diagnostic information but are difficult to process since they are free texts. 医療ノートには豊富な診断情報が含まれているが、フリーテキストであるため処理が難しい。 0.69
To extract diagnostic information (symptoms) from them without data leakage, we use an extra knowledge graph MeSH データ漏洩のない診断情報(症状)を抽出するために、余分な知識グラフMeSHを用いる。 0.82
PatientVisitDiagnosi sMicribiology testProcedureLab testMedicationSympto mDemographicsMeSH 患者診断 診断 診断 診断 検査 尿管検査 シンプトムデモグラフィ 0.28
英語(論文から抽出)日本語訳スコア
TABLE III: Overall top-k precision of all baselines and HSGNN variants on MIMIC-III dataset. TABLE III: MIMIC-IIIデータセット上のすべてのベースラインとHSGNNの全体的なトップk精度。 0.68
Model Dipole KAME HeteroMed MAGNN HAN HetGNN GCT HSGNN simi-HSGNN sum-HSGNN HSGNN-m モデル Dipole KAME HeteroMed MAGNN HAN HetGNN GCT HSGNN simi-HSGNN sum-HSGNN-m 0.81
Visit-level precision@k visit-level precision@k 0.79
Patient-level precision@k 5 患者レベル精度@k 5 0.86
0.5929 0.6107 0.5893 0.6142 0.6135 0.6124 0.6297 0.6426 0.6123 0.6412 0.6410 0.5929 0.6107 0.5893 0.6142 0.6135 0.6124 0.6297 0.6426 0.6123 0.6412 0.6410 0.42
10 0.7426 0.7475 0.7314 0.7471 0.7464 0.7456 0.7503 0.7658 0.7396 0.7630 0.7638 10 0.7426 0.7475 0.7314 0.7471 0.7464 0.7456 0.7503 0.7658 0.7396 0.7630 0.7638 0.63
15 0.7942 0.7967 0.7866 0.8092 0.8083 0.8070 0.8107 0.8189 0.8034 0.8129 0.8175 15 0.7942 0.7967 0.7866 0.8092 0.8083 0.8070 0.8107 0.8189 0.8034 0.8129 0.8175 0.63
20 0.7540 0.7562 0.7670 0.7693 0.7691 0.7689 0.7703 0.7736 0.7689 0.7683 0.7667 20 0.7540 0.7562 0.7670 0.7693 0.7691 0.7689 0.7703 0.7736 0.7689 0.7683 0.7667 0.63
5 0.6393 0.6472 0.6285 0.6501 0.6494 0.6489 0.6633 0.6778 0.6488 0.6724 0.6752 5 0.6393 0.6472 0.6285 0.6501 0.6494 0.6489 0.6633 0.6778 0.6488 0.6724 0.6752 0.63
10 0.7359 0.7565 0.7255 0.7585 0.7582 0.7580 0.7592 0.7613 0.7481 0.7597 0.7740 10 0.7359 0.7565 0.7255 0.7585 0.7582 0.7580 0.7592 0.7613 0.7481 0.7597 0.7740 0.63
15 0.7271 0.7530 0.7171 0.7548 0.7550 0.7452 0.7685 0.7702 0.7452 0.7696 0.7723 15 0.7271 0.7530 0.7171 0.7548 0.7550 0.7452 0.7685 0.7702 0.7452 0.7696 0.7723 0.63
20 0.7239 0.7288 0.7193 0.7394 0.7386 0.7379 0.7384 0.7456 0.7479 0.7384 0.7429 20 0.7239 0.7288 0.7193 0.7394 0.7386 0.7379 0.7384 0.7456 0.7479 0.7384 0.7429 0.63
(Medical Subject Headings)1 to extract meaningful structural diagnostic information from free text. (医学的主語見出し)1 自由テキストから有意義な構造診断情報を抽出する。 0.83
We extract entries “medications on admission”, “family history”, “impression”, “chief complaint”, “physical examination on admission” and “history” from the medical notes, and then match words in these entries to MeSH. 本論文では,医療ノートから,「入院の薬」,「家族の歴史」,「印象」,「主訴」,「入院の物理検査」,「歴史」の項目を抽出し,これらの項目の単語をMeSHにマッチさせる。 0.64
After that we use these matched keyworks together with its connections in MeSH to help building the heterogeneous MIMIC-III network. その後、マッチしたキーワークとMeSHの接続を使って、異種MIMIC-IIIネットワークの構築を支援します。 0.59
By doing this we extract keywords from the diagnostic texts while incorporating external knowledge graph into our graph. これによって、診断テキストからキーワードを抽出し、外部知識グラフをグラフに組み込む。 0.77
d) other medical codes: MIMIC-III uses ICD-9-PC and ICD-9 ontology to represent all procedures and diagnoses. d) 他の医療コード:MIMIC-IIIは、すべての処置と診断を表現するために、ICD-9-PCおよびICD-9オントロジーを使用する。 0.53
International Classification of Diseases (ICD) is a medical ontology which is widely used in healthcare. International Classification of Diseases (ICD) は医学のオントロジーであり、医療で広く使われている。 0.83
In these ontologies, diagnoses and procedures are organized in hierarchical structures and the first several digits denote a high-level concept of the codes. これらのオントロジーでは、診断と手続きは階層構造で整理され、最初の数桁はコードの高レベルな概念を表す。 0.75
In this case, we choose the first two digits for procedure codes and the first three digits for diagnosis codes to predict. この場合、手順コードの最初の2桁と診断コードの最初の3桁を選択して予測する。 0.73
We then select the most commonly existing codes as nodes in our graph and dismiss other rare codes. 次に、最も一般的な既存のコードをグラフのノードとして選択し、他の稀なコードを除外します。
訳抜け防止モード: 最も一般的なコードをグラフのノードとして選択します 他のレアコードも廃止する。
0.69
B. Baselines To demonstrate the advantage of HSGNN, we select three medical predictive models and three graph neural networks as our baseline. B.ベースライン HSGNNの利点を実証するため、3つの医学予測モデルと3つのグラフニューラルネットワークをベースラインとして選択した。
訳抜け防止モード: B.ベースライン HSGNNの利点を示すために 3つの医学予測モデルと3つのグラフニューラルネットワークを ベースラインとして選択します
0.79
• Dipole [10]. • 双極子[10]。 0.64
Dipole uses bidirectional recurrent neural networks and attention mechanism to make predictions. Dipoleは双方向のリカレントニューラルネットワークとアテンションメカニズムを使って予測を行う。 0.70
In this experiment, we use patient conditions at different times in one visit to make the visit-level prediction, and use information of different visits to make patient-level prediction. 本実験では,1回の訪問で異なる患者条件を用いて訪問レベルの予測を行い,異なる訪問の情報を用いて患者レベルの予測を行う。 0.84
• KAME [14]. ・KAME[14]。 0.49
KAME learns to predict patients’ health situation. KAMEは患者の健康状態を予測することを学ぶ。 0.68
It incorporates medical knowledge graph, and utilizes attention mechanism to make accurate predictions. 医療知識グラフを取り入れ、注意メカニズムを利用して正確な予測を行う。 0.81
We leverage the MeSH ontology as the knowledge graph to run this model. メッシュオントロジーをナレッジグラフとして活用し、このモデルを実行します。 0.53
It is fair to compare KAME and KAMEとKAMEを比較するのは公平です。 0.64
1https://meshb.nlm.n ih.gov/treeView 1https://meshb.nlm.n ih.gov/treeView 0.31
our proposed HSGNN becuase they all make use of the same ontology although in different settings. 提案したHSGNNは,それぞれ異なる設定で同じオントロジーを利用する。 0.60
• HeteroMed [39]. • HeteroMed [39]。 0.68
HeteroMed is the first approach using HIN to process EHR. HeteroMedは、HINを使用してEHRを処理する最初のアプローチである。 0.62
It exploits meta-paths and employs a joint embedding framework to predict diagnosis for patients. メタパスを活用し、患者の診断を予測するためにジョイント埋め込みフレームワークを使用している。 0.53
We use the same graph structure on this model as HSGNN. このモデルではHSGNNと同じグラフ構造を用いる。 0.74
• MAGNN [20]. MAGNN[20]。 0.46
MAGNN proposes intra-metapath aggregators and inter-metapath aggregators to make inductive predictionson heterogeneous graphs. MAGNNは、誘導的予測ソン不均一グラフを作成するために、メタパス内アグリゲータとメタパス間アグリゲータを提案する。 0.32
We use the same graph structure and meta-paths on this model as HSGNN. このモデルではHSGNNと同じグラフ構造とメタパスを用いる。 0.75
• HetGNN [19]. ・HetGNN[19]。 0.53
HetGNN is a heterogeneous graph neural network that introduces a random walk to sample a fixed size of heterogeneous neighbors and leverages a neural network architecture with two modules to aggregate feature information of those sampled neighboring nodes HetGNNは異種グラフニューラルネットワークで、ランダムウォークを導入し、異種隣接ノードの固定サイズをサンプリングし、2つのモジュールでニューラルネットワークアーキテクチャを活用して、これらの隣ノードの特徴情報を集約する。 0.72
• HAN [18]. HAN is a heterogeneous graph neural network based on hierarchical attention, including node-level and semantic-level attentions to learn the importance between a node and its metapath based neighbors and the importance of different meta-paths. ・HAN[18]。 HANは階層的な注意に基づく異種グラフニューラルネットワークであり、ノードとそのメタパスベースの隣人の間の重要性と異なるメタパスの重要性を学習するためのノードレベルおよびセマンティックレベルの注意を含む。 0.64
• GCT [15]. • gct [15] である。 0.73
GCT uses graph convolutional transformers to jointly learn the hidden structure of EHR while performing prediction tasks on EHR data. GCTはグラフ畳み込み変換器を用いて、EHRデータの予測タスクを実行しながら、EHRの隠れ構造を共同で学習する。 0.71
GCT uses data statistics to guide the structure learning process. GCTはデータ統計を用いて構造学習プロセスを導く。 0.83
In the experiments, we use the data schema mentioned above to generate its pre-training weights. 実験では、上述したデータスキーマを用いて、トレーニング前の重みを生成する。 0.73
Meanwhile, we also conduct experiments on following five その間 以下の5つの実験も行っています 0.66
variants on HSGNN to find the best architecture. HSGNNで最高のアーキテクチャを見つけるための変種。 0.78
• HSGNN Model we proposed in this paper, using concatenation operation to derive Fmeta (Eq. 本論文で提案したHSGNNモデルでは,Fmeta(Eq。
訳抜け防止モード: • 本論文で提案するhsgnnモデル 連結演算を用いてfmeta(eq)を導出する。
0.79
5 9) and aggregated attentional sum to derive Ameta (Eq. 59) であり, ameta (eq) を導出するために注意和を集計した。 0.48
7 4). Then a onelayer GCN is applied on Fmeta and Ameta to make final predictions. 7 4). 次に、FmetaとAmetaに一層GCNを適用して最終的な予測を行う。 0.80
• simi-HSGNN Use P athCount but not SPS to derive A. •シミ-HSGNNはP athCountを使用するが、SPSはAを誘導しない。 0.55
This is to show the efficiency of SPS. これはSPSの効率を示すためである。 0.80
• sum-HSGNN Use simply weighted sum to derive Amate (Eq. sum-HSGNN 単に加重和を使ってAmate (Eq) を導出する。 0.62
2). Then a one-layer GCN is applied on F and 2). 次に、Fに一層GCNを印加し、 0.78
英語(論文から抽出)日本語訳スコア
Visit-level precision. Visit-level time. 視察レベルの精度。 訪問時間。 0.58
Patient-level precision. Patient-level time. 患者レベルの精度。 患者レベルの時間。 0.65
Fig. 5: Precision and running time of Quick Inference compare with traditional train and test procedure. フィギュア。 5: クイック推論の精度と実行時間を従来の列車とテスト手順と比較する。 0.65
(Dark green denotes training, (ダークグリーンは訓練を意味する。 0.58
brown denotes testing and purple denoted quick reference.) ブラウンはテストを示し、紫はクイックリファレンスを表す。 0.62
Ameta to make final predictions. 最終予測を行うためのameta。 0.78
This is to compare HSGNN with a simpler model to show the efficiency of splitting EHR graph into multiple subgraphs. これは、HSGNNと単純なモデルを比較して、EHRグラフを複数のサブグラフに分割する効率を示す。 0.78
• HSGNN-m Use mean aggregator to derive Amate. • hsgnn-mは平均アグリゲータを使用してamateを導出する。 0.43
Other settings are the same as HSGNN. 他の設定はHSGNNと同じです。 0.79
This variant is to show the effect of different aggregation functions. この変種は、異なる集約関数の効果を示すことである。 0.73
C. Problem Introduction Diagnosis prediction can be viewed as a multi-label classification problem where we try to predict multiple possible diagnoses for the patients or visits. c. 問題序説 診断予測は多ラベル分類問題と見ることができ、患者や訪問者に対する複数の診断の可能性を予測する。 0.80
We conduct both patient level prediction and visit level prediction on the dataset. 患者レベルの予測と訪問レベルの予測をデータセット上で行う。 0.79
As for patient level prediction, only diagnoses existing on all visits of this patient would be counted as the diangosis of the patient. 患者レベルの予測については,すべての訪問で存在する診断のみを患者のジアンギスとしてカウントする。 0.78
We then split training and testing set by removing the corresponding “visit-diagnosis ” edges in the graph. 次に、グラフの”visit-diagnosis ”エッジを削除することで、トレーニングとテストセットを分割しました。 0.65
Then, since medication and procedure can be determined by diagnosis, these edges are also removed to prevent data leakage. そして、診断によって薬品や処置を判定できるので、これらのエッジも除去してデータの漏洩を防止する。 0.67
D. Experiment Settings In the experiment, we use the concatenation of feature vectors from different sources as the features of the visits, and then we use them for all baseline models. D.実験環境 実験では,異なるソースからの特徴ベクトルの連結を訪問の特徴として使用し,すべてのベースラインモデルに使用する。 0.71
For each experiment, we use 10-fold cross validation. 各実験には10倍のクロスバリデーションを使用します。 0.68
Training, validation and testing sets are with a 7 : 1 : 2 ratio. トレーニング、検証、テストセットは7 : 1 : 2の比率である。 0.74
Our method is implemented by Tensorflow 2.0 and Python 3.6, and tested on an machine with 32G RAM and 2 NVIDIA GeForce RTX 2080 Ti GPU. 提案手法はTensorflow 2.0 と Python 3.6 で実装され,32G RAM と 2 NVIDIA GeForce RTX 2080 Ti GPU のマシン上でテストされている。 0.78
To evaluate the quality of prediction, we use precision at top-k as the metric. 予測の質を評価するために、トップkでの精度を計量として用いる。 0.64
We set the value of k as 5, 10, 15, 20. k の値は 5, 10, 15, 20 と設定した。 0.80
E. Results of diagnosis prediction e. 診断予測の結果 0.89
1) Comparison with other baselines: Table III displays the performance of all comparable models on MIMIC-III. 1) 他のベースラインとの比較: Table IIIはMIMIC-IIIで同等のモデルのパフォーマンスを示す。 0.84
In the table, HSGNN and its variant HSGNN-m. outperform all other baselines. 表では、HSGNNとその変種HSGNN-m.は、他のすべてのベースラインを上回っている。 0.56
We conduct diagnosis prediction task the MIMIC-III dataset. 診断予測タスクをMIMIC-IIIデータセットで行う。 0.72
Generally, there are about 10 diagnoses for each visit and 4 visits for each patient. 一般に、訪問ごとに約10回の診断があり、患者は4回診察される。 0.74
Therefore, when k increases, the precision may either increase or decrease. したがって、kが増加すると、精度は増加するか減少する。 0.72
The accuracy of a model approximately reach its maximum when k = 10 for patient diagnosis prediction and k = 15 for visit level 患者の診断予測に k = 10 、訪問レベルに k = 15 のとき、モデルの精度がほぼ最大に達する。 0.85
prediction. This is also why we choose maximum k = 20. 予測だ これが最大 k = 20 を選ぶ理由でもある。 0.76
Therefore, if we focus on the column of k = 15 of the visitlevel prediction and k = 10 of patient-level prediction, we can find HSGNN improve 0.7% and 1.4% on both tasks. したがって、訪問レベルの予測の k = 15 と患者レベルの予測の k = 10 の列に注目すると、HSGNN は両方のタスクで 0.7% と 1.4% 改善している。 0.81
All baselines, together with HSGNN can be classified into three categories: RNN models, homogeneous graph models and heterogeneous graph models. すべてのベースラインとHSGNNは、RNNモデル、同質グラフモデル、異質グラフモデルという3つのカテゴリに分類される。 0.75
From the results we can infer that homogeneous graph models (KAME and GCT) perform better than RNN models (Dipole), and heterogeneous graph approaches (MAGNN and HSGNN) perform better than homogeneous approaches. その結果、均質グラフモデル(kameとgct)はrnnモデル(dipole)よりも優れており、異種グラフアプローチ(magnnとhsgnn)は均質なアプローチよりも優れていると推測できる。 0.75
It demonstrates the effectiveness of considering structural information when making predictions. 予測を行う際に構造情報を考慮する効果を示す。 0.84
Compared with homogeneous graphs, heterogeneous graphs carry more information and thus can achieve more improvement when applied to the model. 等質グラフと比較すると、異質グラフはより多くの情報を持ち、モデルに適用するとさらに改善できる。 0.77
Among all baseline models, GCT achieves the best performance even if it uses homogeneous graph. すべてのベースラインモデルの中で、GCTは等質グラフを用いても最高の性能を達成する。 0.66
Note that a common design of GCT and HSGNN is that they both use trainable weights and construct a virtual graph in the model. GCTとHSGNNの共通設計は、どちらもトレーニング可能な重みを使い、モデルに仮想グラフを構築することである。 0.76
Therefore, we can infer that compared with using the original input graph, a virtual graph constructed in the model can improve the performance of GNN. したがって、元の入力グラフと比較して、モデルで構築された仮想グラフはGNNの性能を向上させることができる。 0.76
Since our proposed HSGNN outperforms GCT, our model can learn a more accurate graph structure in the model. 提案するHSGNNはGCTより優れており,より正確なグラフ構造を学習することができる。 0.66
This phenomenon is because our model uses the heterogeneous graph as input and considers the difference between meta-paths. この現象は, 異種グラフを入力とし, メタパスの違いを考慮した結果である。 0.76
2) Comparison among HSGNN variants: We also test some variants of HSGNN to find the best architecture of HSGNN while making some ablation studies. 2) HSGNNの変種の比較: HSGNNの最良のアーキテクチャを見つけるために, HSGNNの変種についても検討した。 0.76
The first variant we compare with is simi-HSGNN, which uses the P athCount as similarity measure but not SPS. 最初に比較した変種はSimi-HSGNNであり、これは P athCount を類似度尺度としているが SPS ではない。 0.67
By doing so, HSGNN becomes almost equivalent to HAN [18] and its performance can be viewed as the performance of HAN. これにより、HSGNNはHAN[18]とほぼ同値となり、その性能をHANのパフォーマンスと見なすことができる。 0.76
Simi-HSGNN performs worse than HSGNN for around 2% on both tasks, showing that using normalize similarity measure SPS is an essential way to achieve better results. シミ-HSGNNは両タスクの約2%でHSGNNよりも悪く、SPSの正規化はより良い結果を得るための必須の方法であることを示している。 0.63
Another variant considered is sum-HSGNN. もう一つの変種はsum-hsgnnである。 0.40
Compared with HSGNN, sum-HSGNN is its simplified version since it contains less parameters in the model and is faster to train. HSGNNと比較して、Sum-HSGNNはモデルにパラメータが少なく、訓練が速いため、単純化されたバージョンである。 0.71
Nevertheless, the performance of sum-HSGNN doesn’t それでもSum-HSGNNのパフォーマンスはそうではない 0.71
80%70%60%Training set percentage a%0.700.720.740.760. 780.80Precision@1080 %70%60%Training set percentage a%5.07.510.012.515.0 17.520.0Testing time in sec.80%70%60%Trainin g set percentage a%0.600.650.700.750. 80Precision@1080%70% 60%Training set percentage a%5.07.510.012.515.0 17.520.0Testing time in sec. 80%70%60%Training set percentage a%0.700.720.740.780. 80Precision@1080%70% 60%Training set percentage a%5.07.510.012.515.0 17.520.0Testing time in sec.80%70%Training set percentage a%0.600.650.700.750. 80Precision@1080%70% 60%Training set percentage a%5.07.510.012.515.0 17.520.0Testing time in sec. 0.61
英語(論文から抽出)日本語訳スコア
DeepWalk. metapath2vec. DeepWalk Metapath2vec 0.63
GRAM. HSGNN. GRAM。 HSGNN 0.66
Fig. 6: T-SNE scatterplots of diagnoses trained by HSGNN, DeepWalk, metapath2vec and GRAM. フィギュア。 6: HSGNN, DeepWalk, metapath2vec, GRAMによってトレーニングされた診断のT-SNE散乱体。 0.53
decrease a lot because of its simplicity and sum-HSGNN outperforms all other variants and baseline models except HSGNN and HSGNN-m. その単純さと総和HSGNNはHSGNNとHSGNN-m以外の全ての派生モデルやベースラインモデルより優れています。 0.71
The reason may be that sum-HSGNN still preserves the mechanism of learning a trainable virtual graph. なぜなら、Sum-HSGNNはトレーニング可能な仮想グラフを学習するメカニズムを保っているからかもしれない。 0.58
HSGNN-mm shows the impact of different node aggregators on the model performance. HSGNN-mmは、異なるノードアグリゲータがモデルの性能に与える影響を示す。 0.67
However, we discover the influence of aggregators is limited if the size of embeddings are kept constant. しかし,埋め込みの大きさが一定に保たれた場合,アグリゲータの影響は限定的である。 0.67
Therefore, we choose the mean aggregator, the one which is easier to implement and can achieve satisfactory performance, to be compared in the experiments. そこで本研究では,実装が容易で,良好な性能を実現することのできる平均アグリゲータを実験で比較する。 0.67
F. Performance of Quick Inference F.クイック推論の性能 0.88
To compare the efficiency and the effectiveness of our quick inference method (III. 高速推論法(III)の有効性と効率を比較検討した。 0.75
C) to traditional testing step, we design the following experiment to evaluate its performance. C) 従来のテストステップに対して,パフォーマンスを評価するために以下の実験を設計する。 0.76
Firstly, we choose a% of data randomly from the dataset as training and validation samples. まず、トレーニングと検証のサンプルとしてデータセットからデータの1%をランダムに選択する。 0.74
Then we split the remaining 1 − a% samples equally for traditional testing and quick inference. その後、従来のテストと迅速な推論のために、残りの1-a%のサンプルを等しく分割しました。 0.58
Secondly, in the preprocessing step, both training samples and testing samples are used to generate the graph. 次に、前処理ステップでは、トレーニングサンプルとテストサンプルの両方を使用してグラフを生成する。 0.76
Then this graph is fed forward to our model. そして、このグラフは私たちのモデルに送られます。 0.68
Finally, when the model is well-trained, we use the quick inference method to predict the remaining (1− a%)/2 samples, and compare its precision and running time to the traditional testing procedure. 最後に,モデルが十分に訓練された場合,残りの (1-a%)/2サンプルの予測にクイック推論法を用い,その精度と実行時間を従来の試験法と比較する。 0.88
In this experiment, we set a = 80%, 70%, 60% respectively. この実験では,それぞれa = 80%,70%,60%を設定した。 0.78
Fig. 5 shows the result of training performance, testing performance and the quick inference performance under visitlevel and patient-level prediction. フィギュア。 バージョン5では、トレーニングパフォーマンス、テストパフォーマンス、訪問レベルと患者レベルの予測による迅速な推論パフォーマンスの結果が示されている。 0.51
For each task, we evaluate the precision@10 of training samples, testing samples and quick inference samples after the model is well-trained. 各タスクに対して、モデルが十分に訓練された後、トレーニングサンプルの精度@10、テストサンプルおよびクイック推論サンプルを評価する。 0.80
We also measure the time for testing samples and quick reference samples to get the results. 結果を得るために、サンプルのテスト時間やクイックリファレンスサンプルも測定します。 0.74
We do not measure the time of training procedure because it depends on parameters such as learning rate. 学習率などのパラメータに依存するため、トレーニング手順の時間を測定することはできない。 0.76
From Fig 5 we can discover that 図5から、私たちはそれを発見できます。 0.55
the quick inference accuracy is only slightly lower then the traditional testing precision on both visit prediction and patient prediction tasks. 迅速な推論精度は、訪問予測と患者の予測タスクの両方において従来のテスト精度よりもわずかに低い。 0.77
Nevertheless, the time of getting quick inference results is much shorter than getting a traditional testing result. それでも、迅速な推論結果を得る時間は、従来のテスト結果よりもはるかに短い。 0.78
This is because quick inference can get Ameta without forwardpropagation, and then get results simply through a one-layer graph neural network. これは、高速な推論がAmetaをフォワードプロパゲーションなしで取得し、1層グラフニューラルネットワークで結果を得るためである。 0.70
With a% decreasing, all the training, testing and quick inference precision decreases. a%の減少に伴い、トレーニング、テスト、迅速な推論精度は低下する。 0.74
It is because of the lack of それは不足のためです 0.58
training samples, making the model under-fitting. サンプルをトレーニングし、モデルを不適合にする。 0.58
On the other hand, the decrease of training samples means the number of testing samples and quick inferences are increasing. 一方、トレーニングサンプルの減少は、テストサンプルの数の増加と迅速な推論の増加を意味する。 0.73
Therefore, the number of inference is increasing. そのため、推測数が増加している。 0.72
G. Representation Learning with External Knowledge G.外部知識を用いた表現学習 0.73
HSGNN can learn representations for nodes. HSGNNはノードの表現を学ぶことができる。 0.63
Since many models such as GRAM can learn high quality representations by integrating medical ontologies, we try to test the ability of HSGNN to learn informative representations on the same task. GRAMのような多くのモデルでは,医療オントロジーを統合して高品質な表現を学習できるため,同じタスクで情報表現を学習するHSGNNの能力をテストする。 0.83
In this experiment, we apply ICD-9 ontology on both GRAM and HSGNN to let them learn representations for diagnoses. 本実験では,GRAMとHSGNNの両方にICD-9オントロジーを適用し,診断のための表現を学習する。 0.75
Here are we choose nine categories in ICD-9 ontology to build the graph. グラフを構築するために、ICD-9オントロジーの9つのカテゴリを選択します。 0.61
Since diagnoses in the same category are directly connected and are more relative to each other, an ideal result is that all diagnosis nodes belong to the same category can form a cluster in visualization. 同じカテゴリの診断は直接接続されており、互いにより相対的であるため、理想的な結果として、同じカテゴリに属するすべての診断ノードが視覚化においてクラスタを形成することができる。 0.77
To train HSGNN in an unsupervised way, we apply a loss like [27] which maximizes the dot product of diagnoses in the same category. HSGNNを教師なしで訓練するには、[27]のような損失を適用し、同じカテゴリにおける診断のドット積を最大化する。 0.58
Fig 6 shows the result of representation learning by ploting the tSNE result [40]. 図6は、tSNE結果[40]をプロットして表現学習の結果を示す。 0.78
Here we compare the results of HSGNN with GRAM, DeepWalk [41] and metapath2vec [42]. 本稿では,HSGNNとGRAM,DeepWalk [41],Metapath2vec [42]を比較した。 0.77
In Fig 6, the colors of the dots represents the ICD-9 categories. 図6では、ドットの色はICD-9カテゴリを表す。 0.80
According to the visualization, we can prove that HSGNN can produce representations with high quality since it forms clear clusters for each category. 可視化により,HSGNNが各カテゴリに対して明確なクラスタを形成するため,高品質な表現を生成できることが証明できる。 0.81
V. CONCLUSION V.コンキュレーション 0.76
EHR data is highly heterogeneous with high-dimensional temporal data. EHRデータは高次元時間データと非常に均一である。 0.72
To model the intrinsic complexity of EHRs and utilize external medical knowledge, we propose HSGNN framework to learn high quality representations while generating predictions. EHRの内在的な複雑さをモデル化し、外部の医療知識を活用するために、予測を生成しながら高品質な表現を学習するHSGNNフレームワークを提案する。 0.62
HSGNN accepts similarity matrices as inputs and use the attention mechanism to measure the impact of each meta-paths. HSGNNは類似度行列を入力として受け入れ、各メタパスの影響を測定するためにアテンションメカニズムを使用する。 0.57
In the experiment section, we conduct diagnosis prediction task on MIMIC-III dataset, proving the superiority ability of HSGNN over baseline models. 実験では,MIMIC-IIIデータセット上で診断予測を行い,ベースラインモデルよりもHSGNNの方が優れていることを示す。 0.77
The visualization of representations shows the ability of HSGNN in generating reasonable representations both for diagnosis and patients. 表現の可視化は、診断と患者の両方に合理的な表現を生成するHSGNNの能力を示している。 0.68
The superiority of HSGNN is mainly because it can make use of external medical ontologies together with both temporal and structural information. HSGNNの優位性は主に、外的医療オントロジーと時間的情報と構造的情報の両方を併用できるためである。 0.83
10505101510505101001 02030100102030105051 01050510505101520105 0510 10505101510505101001 02030100102030105051 01050510505101520105 0510 0.06
英語(論文から抽出)日本語訳スコア
ACKNOWLEDGMENT The corresponding author is Hao Peng. 承認 著者はHao Peng氏。 0.40
This work is supported by Key Research and Development Project of Hebei Province (No. この研究は、河北省のキーリサーチ・開発プロジェクトによって支援されている(No.)。 0.62
20310101D), NSFC No.62002007 and No.62073012, and in part by NSF under grants III-1763325, III-1909323, IIS-1763365 and SaTC-1930941. 20310101d, nsfc no.62002007, no.62073012, and part by nsf under grants iii-1763325, iii-1909323, iis-1763365, satc-1930941。 0.68
REFERENCES [1] T. Fu, T. N. Hoang, C. Xiao, and J. 参考 [1] T. Fu, T. N. Hoang, C. Xiao, J。 0.69
Sun, “DDL: deep dictionary learning Sun, “DDL: Deep Dictionary Learning” 0.90
for predictive phenotyping,” in IJCAI, 2019, pp. とijcai, 2019, pp.で述べている。 0.45
5857–5863. 5857–5863. 0.71
[2] T. Bai, A. K. Chanda, B. L. Egleston, and S. Vucetic, “Ehr phenotyping via jointly embedding medical concepts and words into a unified vector space,” BMC medical informatics and decision making, vol. A.K. Chanda, B.L. Egleston, S. Vucetic, “Ehr representationtyping through jointly embedded medical concept and words into a unified vector space”, BMC Medical informatics and decision making, vol。
訳抜け防止モード: [2 ]T. Bai, A. K. Chanda, B. L. Egleston, S. Vucetic, “Ehr representationtyping via 医療の概念と言葉を統合されたベクトル空間に共同で埋め込む。 BMC医療情報学と意思決定
0.86
18, no. 4, p. 123, 2018. 18 だめだ 4p.123, 2018。 0.60
[3] X. S. Zhang, F. Tang, H. H. Dodge, J. Zhou, and F. Wang, “Metapred: Meta-learning for clinical risk prediction with limited patient electronic health records,” in SIGKDD, 2019, pp. X.S. Zhang, F. Tang, H. H. Dodge, J. Zhou, F. Wang, “Metapred: Meta-learning for Clinical Risk Prediction with limited patient Electronic health records”, SIGKDD, 2019, pp。 0.83
2487–2495. 2487–2495. 0.71
[4] Z. C. Lipton, D. C. Kale, C. Elkan, and R. Wetzel, “Learning to diagnose with lstm recurrent neural networks,” arXiv preprint arXiv:1511.03677, 2015. 4] z. c. lipton, d. c. kale, c. elkan, r. wetzel, “learning to diagnostic with lstm recurrent neural networks”, arxiv preprint arxiv:1511.03677, 2015年。 0.77
[5] J. Shang, C. Xiao, T. Ma, H. Li, and J. J. Shang, C. Xiao, T. Ma, H. Li, J. 0.70
Sun, “Gamenet: Graph augmented memory networks for recommending medication combination,” in AAAI, 2019, pp. Sun, “Gamenet: Graph augmented memory network for recommending Drug combination”, AAAI, 2019, pp。 0.71
1126–1133. 1126–1133. 0.71
[6] Z. Che and Y. Liu, “Deep learning solutions to computational phenotyping in health care,” in ICDM Workshops. Z. Che, Y. Liu, “Deep Learning Solution to compute phenotyping in health care”. ICDM Workshops. 0.69
IEEE Computer Society, 2017, pp. IEEE Computer Society, 2017。 0.60
1100–1109. 1100–1109. 0.71
[Online]. Available: https://doi.org/10. [オンライン] 利用可能: https://doi.org/10。 0.59
1109/ICDMW.2017.156 1109/ICDMW.2017.156 0.29
[7] X. Cai, J. Gao, K. Y. Ngiam, B. C. Ooi, Y. Zhang, and X. Yuan, “Medical concept embedding with time-aware attention,” in Proceedings of the 27th International Joint Conference on Artificial Intelligence, 2018, pp. X. Cai, J. Gao, K. Y. Ngiam, B. C. Ooi, Y. Zhang, X. Yuan, “Medical concept embedded with time-aware attention” in Proceedings of the 27th International Joint Conference on Artificial Intelligence, 2018, pp. 0.90
3984–3990. 3984–3990. 0.71
[8] E. Choi, M. T. Bahadori, E. Searles, C. Coffey, M. Thompson, J. Bost, J. Tejedor-Sojo, and J. E. Choi, M. T. Bahadori, E. Searles, C. Coffey, M. Thompson, J. Bost, J. Tejedor-Sojo, J. 0.90
Sun, “Multi-layer representation learning for medical concepts,” in SIGKDD, 2016, pp. sun, “multi-layer representation learning for medical concepts” in sigkdd, 2016 pp. (英語) 0.76
1495–1504. 1495–1504. 0.71
[9] E. Choi, M. T. Bahadori, J. [9]E. Choi, M. T. Bahadori, J. 0.94
Sun, J. Kulas, A. Schuetz, and W. F. Stewart, “RETAIN: an interpretable predictive model for healthcare using reverse time attention mechanism,” in NeurIPS, 2016, pp. Sun, J. Kulas, A. Schuetz, W. F. Stewart, “RETAIN: a interpretable predictive model for healthcare using reverse time attention mechanism”. NeurIPS, 2016. pp。 0.83
3504–3512. 3504–3512. 0.71
[10] F. Ma, R. Chitta, J. Zhou, Q. [10]F. Ma, R. Chitta, J. Zhou, Q. 0.97
You, T. Sun, and J. Gao, “Dipole: Diagnosis prediction in healthcare via attention-based bidirectional recurrent neural networks,” in SIGKDD, 2017, pp. you, t. sun, and j. gao, “dipole: diagnostic prediction in healthcare via attention-based bidirectional recurrent neural networks” in sigkdd, 2017 pp. (英語) 0.86
1903–1911. 1903–1911. 0.71
[11] Z. C. Lipton, D. C. Kale, C. Elkan, and R. C. Wetzel, “Learning to diagnose with LSTM recurrent neural networks,” in 4th International Conference on Learning Representations, ICLR 2016, 2016. Z.C. Lipton, D. C. Kale, C. Elkan, R. C. Wetzel, “Learning to diagnose with LSTM recurrent neural network” in 4th International Conference on Learning Representations, ICLR 2016. 2016 0.84
[12] E. Choi, M. T. Bahadori, A. Schuetz, W. F. Stewart, and J. E. Choi, M. T. Bahadori, A. Schuetz, W. F. Stewart, J. 0.84
Sun, “Doctor AI: predicting clinical events via recurrent neural networks,” in Proceedings of the 1st Machine Learning in Health Care, MLHC 2016, vol. Sun, “Doctor AI: predicting clinical events via recurrent neural network” in Proceedings of the 1st Machine Learning in Health Care, MLHC 2016 vol。 0.76
56. JMLR.org, 2016, pp. 56. JMLR.org、2016年。 0.81
301–318. [13] M. Aczon, D. Ledbetter, L. V. Ho, A. M. Gunny, A. Flynn, J. Williams, and R. C. Wetzel, “Dynamic mortality risk predictions in pediatric critical care using recurrent neural networks,” CoRR, vol. 301–318. 13] M. Aczon, D. Ledbetter, L. V. Ho, A. M. Gunny, A. Flynn, J. Williams, R. C. Wetzel, “リカレントニューラルネットワークを用いた小児科における死亡リスクの動的予測”。 0.78
abs/1701.06675, 2017. abs/1701.06675, 2017 0.67
[14] F. Ma, Q. [14] F. Ma, Q. 0.94
You, H. Xiao, R. Chitta, J. Zhou, and J. Gao, “KAME: knowledge-based attention model for diagnosis prediction in healthcare,” in CIKM, 2018, pp. H.Xiao, R. Chitta, J. Zhou, J. Gao, “KAME: knowledge-based attention model for diagnosis prediction in medical”, CIKM, 2018, pp。 0.80
743–752. [15] E. Choi, Z. Xu, Y. Li, M. W. Dusenberry, G. Flores, E. Xue, and A. M. Dai, “Learning the graphical structure of electronic health records with graph convolutional transformer,” in Proceedings of the Thirty-Second AAAI Conference on Artificial Intelligence. 743–752. E. Choi, Z. Xu, Y. Li, M. W. Dusenberry, G. Flores, E. Xue, A. M. Dai, "グラフ畳み込み変換器による電子健康記録のグラフィカルな構造を学ぶ" Proceedings of the Thirth-Second AAAI Conference on Artificial Intelligence。 0.76
AAAI Press, 2020. AAAIプレス、2020年。 0.85
[16] E. Choi, M. T. Bahadori, L. Song, W. F. Stewart, and J. 16] E. Choi, M. T. Bahadori, L. Song, W. F. Stewart, J. 0.93
Sun, “GRAM: graph-based attention model for healthcare representation learning,” in KDD, 2017, pp. sun, “gram: graph-based attention model for healthcare representation learning” in kdd, 2017 pp。 0.74
787–795. [17] E. Choi, C. Xiao, W. F. Stewart, and J. 787–795. [17] e. choi, c. xiao, w. f. stewart, j. 0.71
Sun, “Mime: Multilevel medical embedding of electronic health records for predictive healthcare,” in NIPS 2018, 2018, pp. Sun, “Mime: Multilevel medical embedded of electronic health records for predictive health” in NIPS 2018, 2018, pp. 0.79
4552–4562. 4552–4562. 0.71
[18] X. Wang, H. Ji, C. Shi, B. Wang, Y. Ye, P. Cui, and P. S. Yu, “Heterogeneous graph attention network,” in The World Wide Web Conference, WWW 2019. X. Wang, H. Ji, C. Shi, B. Wang, Y. Ye, P. Cui, P. S. Yu, “Heterogeneous graph attention network” in the World Wide Web Conference, WWW 2019。 0.86
ACM, 2019, pp. acm、2019年、p。 0.67
2022–2032. 2022–2032. 0.71
[19] C. Zhang, D. Song, C. Huang, A. Swami, and N. V. Chawla, “Heterogeneous graph neural network,” in Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. C. Zhang, D. Song, C. Huang, A. Swami, N. V. Chawla, “Heterogeneous graph neural network” in Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining。 0.82
ACM, 2019, pp. acm、2019年、p。 0.67
793–803. [20] X. Fu, J. Zhang, Z. Meng, and I. 793–803. [20]X. Fu, J. Zhang, Z. Meng, I 0.76
King, “MAGNN: metapath aggregated graph neural network for heterogeneous graph embedding,” in WWW ’20: The Web Conference 2020. king, “magnn: metapath aggregated graph neural network for hetero graph embedded” in www ’20: the web conference 2020 (英語) 0.76
ACM / IW3C2, 2020, pp. ACM/IW3C2, 2020, pp。 0.79
2331–2341. 2331–2341. 0.71
[21] Y. Sun, J. Han, X. Yan, P. S. Yu, and T. Wu, “Pathsim: Meta path-based top-k similarity search in heterogeneous information networks,” PVLDB, vol. [21]Y。 Sun, J. Han, X. Yan, P. S. Yu, T. Wu, “Pathsim: Meta path-based top-k similarity search in heterogeneous information network”, PVLDB, vol. 0.85
4, no. 11, pp. 4位はノー。 11、p。 0.67
992–1003, 2011. 992–1003, 2011. 0.84
[22] Y. Shi, P. Chan, H. Zhuang, H. Gui, and J. Han, “Prep: Path-based relevance from a probabilistic perspective in heterogeneous information networks,” in Proceedings of the 23rd ACM SIGKDD. Y. Shi, P. Chan, H. Zhuang, H. Gui, J. Han, “Prep: Path-based Relevance from a probabilistic perspective from a probageneous information network”, Proceedings of the 23rd ACM SIGKDD. 0.84
ACM, 2017, pp. acm、2017年、p。 0.72
425–434. [23] Q. Li, Z. Han, and X. Wu, “Deeper insights into graph convolutional networks for semi-supervised learning,” in Proceedings of the ThirtySecond AAAI Conference on Artificial Intelligence. 425–434. Q. Li, Z. Han, and X. Wu, “Deeper insights into graph convolutional network for semi-supervised learning” in Proceedings of the ThirtySecond AAAI Conference on Artificial Intelligence。 0.76
AAAI Press, 2018, pp. AAAI Press, 2018, pp。 0.79
3538–3545. 3538–3545. 0.71
[24] D. Chen, Y. Lin, W. Li, P. Li, J. Zhou, and X. [24]D. Chen,Y. Lin,W. Li,P. Li,J. Zhou,X 0.89
Sun, “Measuring and relieving the over-smoothing problem for graph neural networks from the topological view,” in AAAI 2020. aaai 2020でsunは、“トポロジカルな視点からグラフニューラルネットワークの余計な問題を検出し、緩和する”と述べている。
訳抜け防止モード: Sun, “トポロジ的視点からグラフニューラルネットワークの過度なスムーズな問題を計測し、緩和する”。 AAAI 2020参加。
0.74
AAAI Press, 2020, pp. AAAI Press, 2020, pp。 0.82
3438– 3445. 3438– 3445. 0.94
[25] J. Bruna, W. Zaremba, A. Szlam, and Y. LeCun, “Spectral networks and locally connected networks on graphs,” arXiv preprint arXiv:1312.6203, 2013. J. Bruna, W. Zaremba, A. Szlam, Y. LeCun, “Spectral network and local connected network on graphs” arXiv preprint arXiv:1312.6203, 2013 0.85
[26] T. N. Kipf and M. Welling, “Semi-supervised classification with graph 26] t. n. kipf and m. welling, "グラフを用いた半教師付き分類" 0.64
convolutional networks,” in ICLR. iclrは曰く、“畳み込みネットワーク”だ。 0.50
OpenReview.net, 2017. 2017年、OpenReview.net。 0.65
[27] W. Hamilton, Z. Ying, and J. Leskovec, “Inductive representation learning on large graphs,” in Advances in neural information processing systems, 2017, pp. [27] w. hamilton, z. ying, j. leskovec, “inductive representation learning on large graphs” in advances in neural information processing systems, pp. 2017年4月1日閲覧。 0.85
1024–1034. 1024–1034. 0.71
[28] Y. Dou, Z. Liu, L. Sun, Y. Deng, H. Peng, and P. S. Yu, “Enhancing graph neural network-based fraud detectors against camouflaged fraudsters,” in Proceedings of the 29th ACM International Conference on Information & Knowledge Management, 2020, pp. 28] y. dou, z. liu, l. sun, y. deng, h. peng, p. s. yu, “enhancing graph neural network-based fraud detectors against camouflaged fraudsters” in the 29th acm international conference on information & knowledge management, 2020, pp. (英語) 0.78
315–324. [29] H. Peng, J. Li, Q. Gong, Y. 315–324. [29]H. Peng, J. Li, Q. Gong, Y。 0.82
Song, Y. Ning, K. Lai, and P. S. Yu, “Finegrained event categorization with heterogeneous graph convolutional networks,” IJCAI, 2019. Song, Y. Ning, K. Lai, and P.S. Yu, “Finefine Event categorization with heterogeneous graph convolutional network”. IJCAI, 2019. 0.93
[30] Z. Liu, X. Li, Z. [30]Z.Liu,X.Li,Z. 0.88
Fan, S. Guo, K. Achan, and P. S. Yu, “Basket recommendation with multi-intent translation graph neural network,” arXiv preprint arXiv:2010.11419, 2020. Fan, S. Guo, K. Achan, P. S. Yu, “Basket recommendation with multi-intent translation graph neural network” arXiv preprint arXiv:2010.11419, 2020 0.94
[31] X. Li, M. Zhang, S. Wu, Z. Liu, L. Wang, and P. S. Yu, “Dynamic graph [31] X. Li, M. Zhang, S. Wu, Z. Liu, L. Wang, P. S. Yu, “Dynamic graph” 0.91
collaborative filtering,” in ICDM, 2020. コラボレーティブフィルタリング(collaborative filter)”は、2020年のiccdm。 0.54
[32] Y. Gao, L. Xiaoyong, P. Hao, B. Fang, and P. Yu, “Hincti: A cyber threat intelligence modeling and identification system based on heterogeneous information network,” IEEE Transactions on Knowledge and Data Engineering, 2020. [32] y. gao, l. xiaoyong, p. hao, b. fang, p. yu, “hincti: a cyber threat intelligence modeling and identification system based based on hetero information network” ieee transactions on knowledge and data engineering, 2020”(英語) 0.84
[33] P. Velickovic, G. Cucurull, A. Casanova, A. Romero, P. Li`o, and Y. Bengio, “Graph attention networks,” in ICLR, vol. P. Velickovic, G. Cucurull, A. Casanova, A. Romero, P. Li`o, Y. Bengio, “Graph attention network” in ICLR, vol。 0.81
abs/1710.10903, 2018. abs/1710.10903, 2018 0.63
[34] Y. Cao, H. Peng, and S. Y. Philip, “Multi-information source hin for medical concept embedding,” in Pacific-Asia Conference on Knowledge Discovery and Data Mining. Y. Cao, H. Peng, and S. Y. Philip, “Multi-information source hin for medical concept embeding”. Pacific-Asia Conference on Knowledge Discovery and Data Mining. 0.88
Springer, 2020, pp. スプリンガー、2020年、p。 0.56
396–408. [35] C. Shi, Y. Li, J. Zhang, Y. 396–408. [35]C. Shi, Y. Li, J. Zhang, Y。 0.81
Sun, and P. S. Yu, “A survey of heterogeneous information network analysis,” IEEE Trans. Sun, and P.S. Yu, “A survey of heterogeneous information network analysis”, IEEE Trans。 0.85
Knowl. Data Eng., vol. 知っている。 Data Eng., vol. 0.69
29, no. 1, pp. 17–37, 2017. 29歳。 1、p。 17–37, 2017. 0.66
[Online]. Available: https://doi.org/10.1 109/TKDE.2016.259856 1 [オンライン] 利用可能:https://doi.org/10. 1109/TKDE.2016.25985 61 0.49
[36] L. Zhao and L. Akoglu, “Pairnorm: Tackling oversmoothing in gnns,” in 8th International Conference on Learning Representations, ICLR 2020, 2020. 936] L. Zhao, L. Akoglu, “Pairnorm: Tackling oversmoothing in gnns” in 8th International Conference on Learning Representations, ICLR 2020, 2020。 0.76
[37] A. L. Goldberger, L. A. Amaral, L. Glass, J. M. Hausdorff, P. C. Ivanov, R. G. Mark, J. E. Mietus, G. B. Moody, C.-K. Peng, and H. E. Stanley, “Physiobank, physiotoolkit, and physionet: components of a new research resource for complex physiologic signals,” Circulation, vol. A. L. Goldberger, L. A. Amaral, L. Glass, J. M. Hausdorff, P. C. Ivanov, R. G. Mark, J. E. Mietus, G. B. Moody, C.-K. Peng, and H. E. Stanley, “Physiobank, physiotoolkit, and physionet: components of a new research resources for complexphysiological signal”. Circulation, vol. 0.93
101, no. 23, pp. 101、ノー。 pp. 23。 0.78
e215–e220, 2000. e215-e220, 2000。 0.59
[38] A. E. Johnson, T. J. Pollard, L. Shen, H. L. Li-wei, M. Feng, M. Ghassemi, B. Moody, P. Szolovits, L. A. Celi, and R. G. Mark, “Mimic-iii, a freely accessible critical care database,” Scientific data, vol. A.E. Johnson, T. J. Pollard, L. Shen, H. L. Li-wei, M. Feng, M. Ghassemi, B. Moody, P. Szolovits, L. A. Celi, R. G. Mark, “Mimic-iii, a free access critical care database”, Scientific data, Vol. 0.91
3, p. 160035, 2016. 3p.160035, 2016。 0.73
[39] A. Hosseini, T. Chen, W. Wu, Y. [39] a. hosseini, t. chen, w. wu, y. 0.83
Sun, and M. Sarrafzadeh, “Heteromed: Heterogeneous information network for medical diagnosis,” in CIKM, 2018, pp. Sun, and M. Sarrafzadeh, “Heteromed: Heterogeneous information network for medical diagnosis” in CIKM, 2018, pp。 0.79
763–772. [40] P. E. Rauber, A. X. Falc˜ao, and A. C. Telea, “Visualizing time-dependent 763–772. [40]P.E.ラウバー、A.X.ファルク、A.C.テレア「時間依存の可視化」 0.67
data using dynamic t-sne,” in EuroVis, 2016, pp. data using dynamic t-sne” in eurovis, 2016 pp。 0.69
73–77. [41] B. Perozzi, R. Al-Rfou, and S. Skiena, “Deepwalk: online learning of 73–77. [41] b. perozzi, r. al-rfou, s. skiena, "deepwalk: online learning of" 0.75
social representations,” in SIGKDD, 2014, pp. sigkdd, 2014, pp。 0.22
701–710. [42] Y. Dong, N. V. Chawla, and A. Swami, “metapath2vec: Scalable representation learning for heterogeneous networks,” in SIGKDD, 2017, pp. 701–710. [42] Y. Dong, N. V. Chawla, A. Swami, “metapath2vec: Scalable representation learning for heterogeneous networks”, SIGKDD, 2017, pp。 0.79
135–144. 135–144. 0.71
                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。