論文の概要: EGFI: Drug-Drug Interaction Extraction and Generation with Fusion of
Enriched Entity and Sentence Information
- arxiv url: http://arxiv.org/abs/2101.09914v1
- Date: Mon, 25 Jan 2021 06:52:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 19:11:38.720928
- Title: EGFI: Drug-Drug Interaction Extraction and Generation with Fusion of
Enriched Entity and Sentence Information
- Title(参考訳): EGFI: エンリッチエンティティとセンテンス情報の融合による薬物-薬物相互作用抽出と生成
- Authors: Lei Huang, Jiecong Lin, Xiangtao Li, Linqi Song and Ka-Chun Wong
- Abstract要約: 大規模医療文献テキストデータから薬物相互作用を抽出・統合するためのEGFIを提案する。
EGFIは、分類と生成の2つの部分から構成される。
DDIs 2013」データセットと「DTIs」データセットの分類部を評価し、それぞれ0.842と0.720のFIスコアを達成した。
- 参考スコア(独自算出の注目度): 18.026261026245546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid growth in literature accumulates diverse and yet comprehensive
biomedical knowledge hidden to be mined such as drug interactions. However, it
is difficult to extract the heterogeneous knowledge to retrieve or even
discover the latest and novel knowledge in an efficient manner. To address such
a problem, we propose EGFI for extracting and consolidating drug interactions
from large-scale medical literature text data. Specifically, EGFI consists of
two parts: classification and generation. In the classification part, EGFI
encompasses the language model BioBERT which has been comprehensively
pre-trained on biomedical corpus. In particular, we propose the multi-head
attention mechanism and pack BiGRU to fuse multiple semantic information for
rigorous context modeling. In the generation part, EGFI utilizes another
pre-trained language model BioGPT-2 where the generation sentences are selected
based on filtering rules. We evaluated the classification part on "DDIs 2013"
dataset and "DTIs" dataset, achieving the FI score of 0.842 and 0.720
respectively. Moreover, we applied the classification part to distinguish
high-quality generated sentences and verified with the exiting growth truth to
confirm the filtered sentences. The generated sentences that are not recorded
in DrugBank and DDIs 2013 dataset also demonstrate the potential of EGFI to
identify novel drug relationships.
- Abstract(参考訳): 文学の急速な成長は、薬物相互作用などの採掘に隠された多様で包括的な生物医学の知識を蓄積します。
しかし、異質な知識を抽出して、最新の知識や新しい知識を効率的に検索、発見することは困難である。
そこで本研究では,大規模医学文献データから薬物相互作用を抽出・統合するためのEGFIを提案する。
具体的には、EGFIは分類と生成の2つの部分から構成される。
分類部では、EGFIはバイオメディカルコーパスで包括的に事前訓練された言語モデルBioBERTを包含している。
特に,マルチヘッドアテンション機構を提案し,厳密な文脈モデリングのための複数の意味情報を融合するbigruをパックする。
生成部において、EGFIは、フィルタ規則に基づいて生成文が選択される別の事前学習言語モデルBioGPT-2を利用する。
DDIs 2013"データセットと"DTIs"データセットの分類部を評価し,それぞれ0.842と0.720のFIスコアを達成した。
さらに, 分類部を高品質生成文の識別に適用し, 流出成長真理を検証し, フィルタリング文の確認を行った。
DrugBankとDDIs 2013データセットに記録されていない生成された文もまた、新しい薬物関係を識別するEGFIの可能性を示している。
関連論文リスト
- UniCell: Universal Cell Nucleus Classification via Prompt Learning [76.11864242047074]
ユニバーサル細胞核分類フレームワーク(UniCell)を提案する。
異なるデータセットドメインから対応する病理画像のカテゴリを均一に予測するために、新しいプロンプト学習機構を採用している。
特に,本フレームワークでは,原子核検出と分類のためのエンドツーエンドアーキテクチャを採用し,フレキシブルな予測ヘッドを用いて様々なデータセットを適応する。
論文 参考訳(メタデータ) (2024-02-20T11:50:27Z) - Graph-Based Retriever Captures the Long Tail of Biomedical Knowledge [2.2814097119704058]
大規模言語モデル(LLM)は、膨大な知識を要約して提示することで、情報の検索方法を変えつつある。
LLMはトレーニングセットから最も頻繁に見られる情報を強調し、まれな情報を無視する傾向があります。
本稿では,これらのクラスタをダウンサンプリングし,情報過負荷問題を緩和するために知識グラフを活用する新しい情報検索手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T18:31:11Z) - Diversifying Knowledge Enhancement of Biomedical Language Models using
Adapter Modules and Knowledge Graphs [54.223394825528665]
我々は、軽量なアダプターモジュールを用いて、構造化された生体医学的知識を事前訓練された言語モデルに注入するアプローチを開発した。
バイオメディカル知識システムUMLSと新しいバイオケミカルOntoChemの2つの大きなKGと、PubMedBERTとBioLinkBERTの2つの著名なバイオメディカルPLMを使用している。
計算能力の要件を低く保ちながら,本手法がいくつかの事例において性能改善につながることを示す。
論文 参考訳(メタデータ) (2023-12-21T14:26:57Z) - High-throughput Biomedical Relation Extraction for Semi-Structured Web Articles Empowered by Large Language Models [1.9665865095034865]
関係抽出タスクを大言語モデルのバイナリ分類として定式化する。
メインタイトルをテールエンティティとして指定し、コンテキストに明示的に組み込む。
長い内容はテキストチャンクにスライスされ、埋め込みされ、追加の埋め込みモデルで検索される。
論文 参考訳(メタデータ) (2023-12-13T16:43:41Z) - HiPrompt: Few-Shot Biomedical Knowledge Fusion via Hierarchy-Oriented
Prompting [33.1455954220194]
HiPromptは、監督効率の良い知識融合フレームワークである。
階層指向のプロンプトを通じて、大規模言語モデルの数発の推論能力を引き出す。
収集したKG-Hi-BKFベンチマークデータセットの実験的結果は、HiPromptの有効性を示している。
論文 参考訳(メタデータ) (2023-04-12T16:54:26Z) - Drug Synergistic Combinations Predictions via Large-Scale Pre-Training
and Graph Structure Learning [82.93806087715507]
薬物併用療法は、より有効で安全性の低い疾患治療のための確立された戦略である。
ディープラーニングモデルは、シナジスティックな組み合わせを発見する効率的な方法として登場した。
我々のフレームワークは、他のディープラーニングベースの手法と比較して最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-01-14T15:07:43Z) - EBOCA: Evidences for BiOmedical Concepts Association Ontology [55.41644538483948]
本論文は,生物医学領域の概念とそれらの関連性を記述するオントロジーであるEBOCAと,それらの関連性を支持するエビデンスを提案する。
DISNETのサブセットから得られるテストデータとテキストからの自動アソシエーション抽出が変換され、実際のシナリオで使用できる知識グラフが作成されるようになった。
論文 参考訳(メタデータ) (2022-08-01T18:47:03Z) - Discovering Drug-Target Interaction Knowledge from Biomedical Literature [107.98712673387031]
人体における薬物と標的(DTI)の相互作用は、生物医学や応用において重要な役割を担っている。
毎年何百万もの論文がバイオメディカル分野で出回っているので、文学からDTIの知識を自動的に発見することは、業界にとって急激な需要となっている。
生成的アプローチを用いて,この課題に対する最初のエンドツーエンドソリューションについて検討する。
我々はDTI三重項をシーケンスとみなし、Transformerベースのモデルを使ってエンティティや関係の詳細なアノテーションを使わずに直接生成する。
論文 参考訳(メタデータ) (2021-09-27T17:00:14Z) - Towards Incorporating Entity-specific Knowledge Graph Information in
Predicting Drug-Drug Interactions [1.14219428942199]
本稿では,他のバイオメディカル・エンティティとの相互作用から得られる薬物の埋め込みと,ドメイン固有のBioBERT埋め込みに基づくRCアーキテクチャを組み合わせる新しい手法であるBERTKG-DDIを提案する。
DDIExtraction 2013 コーパスで行った実験では、この戦略が他のベースラインアーキテクチャを4.1%マクロF1スコアで改善することを明確に示している。
論文 参考訳(メタデータ) (2020-12-21T06:44:32Z) - Text Mining to Identify and Extract Novel Disease Treatments From
Unstructured Datasets [56.38623317907416]
Google Cloudを使って、NPRラジオ番組のポッドキャストのエピソードを書き起こします。
次に、テキストを体系的に前処理するためのパイプラインを構築します。
我々のモデルは、Omeprazoleが心臓熱傷の治療に役立てることに成功しました。
論文 参考訳(メタデータ) (2020-10-22T19:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。