論文の概要: KEDRec-LM: A Knowledge-distilled Explainable Drug Recommendation Large Language Model
- arxiv url: http://arxiv.org/abs/2502.20350v1
- Date: Thu, 27 Feb 2025 18:22:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:58:05.676826
- Title: KEDRec-LM: A Knowledge-distilled Explainable Drug Recommendation Large Language Model
- Title(参考訳): KEDRec-LM:知識に精通した説明可能な医薬品勧告大言語モデル
- Authors: Kai Zhang, Rui Zhu, Shutian Ma, Jingwei Xiong, Yejin Kim, Fabricio Murai, Xiaozhong Liu,
- Abstract要約: 我々は、オープンソース医薬品知識グラフ、臨床試験データ、PubMed出版物を利用して、説明可能な薬物発見タスクのための包括的なデータセットを構築する。
医用知識の豊富なコーパスから知識を抽出し,医薬品の推薦と合理化を図った教育用LLMである textbfKEDRec-LM を紹介する。
- 参考スコア(独自算出の注目度): 16.712453010522673
- License:
- Abstract: Drug discovery is a critical task in biomedical natural language processing (NLP), yet explainable drug discovery remains underexplored. Meanwhile, large language models (LLMs) have shown remarkable abilities in natural language understanding and generation. Leveraging LLMs for explainable drug discovery has the potential to improve downstream tasks and real-world applications. In this study, we utilize open-source drug knowledge graphs, clinical trial data, and PubMed publications to construct a comprehensive dataset for the explainable drug discovery task, named \textbf{expRxRec}. Furthermore, we introduce \textbf{KEDRec-LM}, an instruction-tuned LLM which distills knowledge from rich medical knowledge corpus for drug recommendation and rationale generation. To encourage further research in this area, we will publicly release\footnote{A copy is attached with this submission} both the dataset and KEDRec-LM.
- Abstract(参考訳): 薬物発見は、バイオメディカル自然言語処理(NLP)において重要な課題であるが、説明可能な薬物発見は未解明のままである。
一方、大きな言語モデル(LLM)は、自然言語の理解と生成において顕著な能力を示している。
説明可能な薬物発見のためにLSMを活用することは、下流のタスクや現実世界のアプリケーションを改善する可能性がある。
本研究では,オープンソース医薬品知識グラフ,臨床治験データ,PubMed出版物を用いて,説明可能な医薬品発見タスクのための包括的データセットを構築した。
さらに, 医用知識の豊富なコーパスから知識を抽出し, 医薬品の推薦と合理化を図り, 学習指導を施した LLM である \textbf{KEDRec-LM} を導入する。
この領域のさらなる研究を奨励するため、データセットとKEDRec-LMの両方をパブリックリリースする。
関連論文リスト
- Automated, LLM enabled extraction of synthesis details for reticular materials from scientific literature [29.097783516208892]
LLMを用いた段落分類と情報抽出を自動化した知識抽出パイプライン(KEP)を提案する。
LLMは、微調整や訓練を必要とせず、PDF文書から化学情報を検索できることを実証する。
これらの結果は,人間のアノテーションやデータキュレーションの取り組みを減らすKEPアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-11-05T20:08:23Z) - Y-Mol: A Multiscale Biomedical Knowledge-Guided Large Language Model for Drug Development [24.5979645373074]
Y-Mol は知識誘導型 LLM であり、鉛化合物発見、プリクリニック、クリニック予測といったタスクをこなすように設計されている。
出版物、知識グラフ、専門家が設計した合成データから学習する。
Y-Molは、鉛化合物の発見、分子特性の予測、薬物相互作用のイベントの同定において、汎用LLMよりも著しく優れている。
論文 参考訳(メタデータ) (2024-10-15T12:39:20Z) - MALADE: Orchestration of LLM-powered Agents with Retrieval Augmented Generation for Pharmacovigilance [17.008132675107355]
本稿ではPhV(Pharmacovigilance)の問題に焦点をあて,さまざまなテキストソースからADE(Adverse Drug Events)を特定することの重要性と課題について述べる。
MALADEは,薬物ラベルデータからADEを抽出するための大規模言語モデルと検索拡張生成を用いた,最初の効果的な協調型マルチエージェントシステムである。
論文 参考訳(メタデータ) (2024-08-03T22:14:13Z) - Explainable Biomedical Hypothesis Generation via Retrieval Augmented Generation enabled Large Language Models [46.05020842978823]
大規模言語モデル(LLM)はこの複雑なデータランドスケープをナビゲートする強力なツールとして登場した。
RAGGEDは、知識統合と仮説生成を伴う研究者を支援するために設計された包括的なワークフローである。
論文 参考訳(メタデータ) (2024-07-17T07:44:18Z) - Emerging Opportunities of Using Large Language Models for Translation
Between Drug Molecules and Indications [6.832024637226738]
薬物分子とそれに対応する指標を翻訳する新しい課題を提案する。
表示からの分子の生成、またはその逆は、病気のより効率的なターゲティングを可能にする。
論文 参考訳(メタデータ) (2024-02-14T21:33:13Z) - Large Language Model Distilling Medication Recommendation Model [58.94186280631342]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - Active Retrieval Augmented Generation [123.68874416084499]
外部知識資源から情報を取得することで、大きな言語モデル(LM)を拡張することは、有望な解決策である。
ほとんどの既存の検索拡張LMは、入力に基づいて一度だけ情報を検索する検索と生成のセットアップを採用している。
本稿では,将来的な内容を予測するために,文の予測を反復的に利用する汎用手法であるフォワード・フォワード・アクティブ・レトリヴァル・ジェネレーション・ジェネレーション(FLARE)を提案する。
論文 参考訳(メタデータ) (2023-05-11T17:13:40Z) - Retrieval-Augmented and Knowledge-Grounded Language Models for Faithful Clinical Medicine [68.7814360102644]
本稿では,Re$3$Writer法を提案する。
本手法が患者の退院指示生成に有効であることを示す。
論文 参考訳(メタデータ) (2022-10-23T16:34:39Z) - Scientific Language Models for Biomedical Knowledge Base Completion: An
Empirical Study [62.376800537374024]
我々は,KG の完成に向けた科学的 LM の研究を行い,生物医学的リンク予測を強化するために,その潜在知識を活用できるかどうかを探る。
LMモデルとKG埋め込みモデルを統合し,各入力例をいずれかのモデルに割り当てることを学ぶルータ法を用いて,性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-06-17T17:55:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。