論文の概要: AI-assisted Knowledge Discovery in Biomedical Literature to Support Decision-making in Precision Oncology
- arxiv url: http://arxiv.org/abs/2412.08900v1
- Date: Thu, 12 Dec 2024 03:24:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-13 13:34:23.386399
- Title: AI-assisted Knowledge Discovery in Biomedical Literature to Support Decision-making in Precision Oncology
- Title(参考訳): 精密腫瘍学における意思決定を支援するAI支援バイオメディカル文献の知識発見
- Authors: Ting He, Kory Kreimeyer, Mimi Najjar, Jonathan Spiker, Maria Fatteh, Valsamo Anagnostou, Taxiarchis Botsis,
- Abstract要約: 我々は,バイオメディカル文献からの知識発見を支援するために,特定の自然言語処理ソリューションの潜在的貢献を評価する。
The Bidirectional Representations from Transformers (BERT) family, two Large Language Models, and PubTator 3.0 were test for their ability to support the named entity recognition (NER) and the relation extract (RE) tasks。
- 参考スコア(独自算出の注目度): 2.8353535592739534
- License:
- Abstract: The delivery of appropriate targeted therapies to cancer patients requires the complete analysis of the molecular profiling of tumors and the patient's clinical characteristics in the context of existing knowledge and recent findings described in biomedical literature and several other sources. We evaluated the potential contributions of specific natural language processing solutions to support knowledge discovery from biomedical literature. Two models from the Bidirectional Encoder Representations from Transformers (BERT) family, two Large Language Models, and PubTator 3.0 were tested for their ability to support the named entity recognition (NER) and the relation extraction (RE) tasks. PubTator 3.0 and the BioBERT model performed best in the NER task (best F1-score equal to 0.93 and 0.89, respectively), while BioBERT outperformed all other solutions in the RE task (best F1-score 0.79) and a specific use case it was applied to by recognizing nearly all entity mentions and most of the relations.
- Abstract(参考訳): 適切な標的療法のがん患者への提供には、既存の知識の文脈における腫瘍の分子プロファイリングと患者の臨床的特徴の完全な分析が必要である。
バイオメディカル文献からの知識発見を支援するために,特定の自然言語処理ソリューションの潜在的貢献について検討した。
The Bidirectional Encoder Representations from Transformers (BERT) family, two Large Language Models, and PubTator 3.0の2つのモデルは、名前付きエンティティ認識(NER)と関係抽出(RE)タスクをサポートするためにテストされた。
PubTator 3.0とBioBERTモデルはNERタスク(それぞれF1スコアが0.93、BioBERTは0.89、BioBERTはREタスクの他のすべてのソリューション(F1スコアが0.79)より優れており、特定のユースケースは、ほとんどすべてのエンティティの言及とほとんどの関係を認識することで適用された。
関連論文リスト
- LLMs in Biomedicine: A study on clinical Named Entity Recognition [42.71263594812782]
大規模言語モデル(LLM)は、様々なNLPタスクにおいて顕著な汎用性を示す。
本稿では,NERタスクの性能向上戦略について検討する。
提案手法であるDiRAGは,バイオメディカルNERにおけるLDMのゼロショットF1スコアを高めることができる。
論文 参考訳(メタデータ) (2024-04-10T22:26:26Z) - An Evaluation of Large Language Models in Bioinformatics Research [52.100233156012756]
本研究では,大規模言語モデル(LLM)の性能について,バイオインフォマティクスの幅広い課題について検討する。
これらのタスクには、潜在的なコーディング領域の同定、遺伝子とタンパク質の命名されたエンティティの抽出、抗微生物および抗がんペプチドの検出、分子最適化、教育生物情報学問題の解決が含まれる。
以上の結果から, GPT 変種のような LLM がこれらのタスクの多くをうまく処理できることが示唆された。
論文 参考訳(メタデータ) (2024-02-21T11:27:31Z) - Multi-level biomedical NER through multi-granularity embeddings and
enhanced labeling [3.8599767910528917]
本稿では,複数のモデルの強みを統合するハイブリッドアプローチを提案する。
BERTは、文脈化された単語の埋め込み、文字レベルの情報キャプチャのための事前訓練されたマルチチャネルCNN、およびテキスト内の単語間の依存関係のシーケンスラベリングとモデル化のためのBiLSTM + CRFを提供する。
我々は、ベンチマークi2b2/2010データセットを用いて、F1スコア90.11を達成する。
論文 参考訳(メタデータ) (2023-12-24T21:45:36Z) - Diversifying Knowledge Enhancement of Biomedical Language Models using
Adapter Modules and Knowledge Graphs [54.223394825528665]
我々は、軽量なアダプターモジュールを用いて、構造化された生体医学的知識を事前訓練された言語モデルに注入するアプローチを開発した。
バイオメディカル知識システムUMLSと新しいバイオケミカルOntoChemの2つの大きなKGと、PubMedBERTとBioLinkBERTの2つの著名なバイオメディカルPLMを使用している。
計算能力の要件を低く保ちながら,本手法がいくつかの事例において性能改善につながることを示す。
論文 参考訳(メタデータ) (2023-12-21T14:26:57Z) - BiomedGPT: A Generalist Vision-Language Foundation Model for Diverse Biomedical Tasks [68.39821375903591]
汎用AIは、さまざまなデータ型を解釈する汎用性のために、制限に対処する可能性を秘めている。
本稿では,最初のオープンソースかつ軽量な視覚言語基盤モデルであるBiomedGPTを提案する。
論文 参考訳(メタデータ) (2023-05-26T17:14:43Z) - Discovering Drug-Target Interaction Knowledge from Biomedical Literature [107.98712673387031]
人体における薬物と標的(DTI)の相互作用は、生物医学や応用において重要な役割を担っている。
毎年何百万もの論文がバイオメディカル分野で出回っているので、文学からDTIの知識を自動的に発見することは、業界にとって急激な需要となっている。
生成的アプローチを用いて,この課題に対する最初のエンドツーエンドソリューションについて検討する。
我々はDTI三重項をシーケンスとみなし、Transformerベースのモデルを使ってエンティティや関係の詳細なアノテーションを使わずに直接生成する。
論文 参考訳(メタデータ) (2021-09-27T17:00:14Z) - Benchmarking for Biomedical Natural Language Processing Tasks with a
Domain Specific ALBERT [9.8215089151757]
A Lite Bidirectional Representations from Transformers (ALBERT) のドメイン固有の適応であるBioALBERTを提案する。
バイオメディカルおよびPubMed Centralおよび臨床コーパスをトレーニングし、20のベンチマークデータセットで6つのタスクを微調整する。
これは、20のベンチマークデータセットのうち17の領域で、新たな最先端技術を表している。
論文 参考訳(メタデータ) (2021-07-09T11:47:13Z) - CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [51.38557174322772]
中国初のバイオメディカル言語理解評価ベンチマークを提示する。
名前付きエンティティ認識、情報抽出、臨床診断正規化、単文/文対分類を含む自然言語理解タスクのコレクションである。
本研究は,現在の11種類の中国モデルによる実験結果について報告し,その実験結果から,現在最先端のニューラルモデルがヒトの天井よりもはるかに悪い性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-15T12:25:30Z) - UmlsBERT: Clinical Domain Knowledge Augmentation of Contextual
Embeddings Using the Unified Medical Language System Metathesaurus [73.86656026386038]
事前学習プロセス中にドメイン知識を統合するコンテキスト埋め込みモデルであるUmlsBERTを紹介する。
これらの2つの戦略を適用することで、UmlsBERTは、臨床領域の知識を単語埋め込みにエンコードし、既存のドメイン固有モデルより優れている。
論文 参考訳(メタデータ) (2020-10-20T15:56:31Z) - BioALBERT: A Simple and Effective Pre-trained Language Model for
Biomedical Named Entity Recognition [9.05154470433578]
既存のBioNERアプローチはこれらの問題を無視し、最先端(SOTA)モデルを直接採用することが多い。
本稿では,大規模バイオメディカルコーパスを用いた効果的なドメイン固有言語モデルであるALBERTを提案する。
論文 参考訳(メタデータ) (2020-09-19T12:58:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。