論文の概要: PHEONA: An Evaluation Framework for Large Language Model-based Approaches to Computational Phenotyping
- arxiv url: http://arxiv.org/abs/2503.19265v1
- Date: Tue, 25 Mar 2025 01:59:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:50:14.530187
- Title: PHEONA: An Evaluation Framework for Large Language Model-based Approaches to Computational Phenotyping
- Title(参考訳): PHEONA: 大規模言語モデルに基づく計算表現手法の評価フレームワーク
- Authors: Sarah Pungitore, Shashank Yadav, Vignesh Subbian,
- Abstract要約: 計算表現型は生物医学研究に不可欠であるが、しばしばかなりの時間と資源を必要とする。
本研究では,観察保健データに対するPHEノッティピングの評価フレームワークを開発し,文脈に特有な考察を概説した。
テストしたサンプル概念から高い分類精度を達成し,計算表現法の改良を目的としたLCM法の可能性を示した。
- 参考スコア(独自算出の注目度): 1.1363669527515645
- License:
- Abstract: Computational phenotyping is essential for biomedical research but often requires significant time and resources, especially since traditional methods typically involve extensive manual data review. While machine learning and natural language processing advancements have helped, further improvements are needed. Few studies have explored using Large Language Models (LLMs) for these tasks despite known advantages of LLMs for text-based tasks. To facilitate further research in this area, we developed an evaluation framework, Evaluation of PHEnotyping for Observational Health Data (PHEONA), that outlines context-specific considerations. We applied and demonstrated PHEONA on concept classification, a specific task within a broader phenotyping process for Acute Respiratory Failure (ARF) respiratory support therapies. From the sample concepts tested, we achieved high classification accuracy, suggesting the potential for LLM-based methods to improve computational phenotyping processes.
- Abstract(参考訳): 計算表現型はバイオメディカル研究には不可欠であるが、特に従来の手法では手作業による広範なデータレビューが一般的であるため、時間とリソースがかなり必要であることが多い。
機械学習と自然言語処理の進歩が役に立つ一方で、さらなる改善が必要である。
LLM(Large Language Models)がテキストベースのタスクに有効であるにもかかわらず、これらのタスクにLLM(Large Language Models)を使用することを検討した研究はほとんどない。
この領域のさらなる研究を促進するため,観測健康データ(PHEONA)に対するPHEnotypingの評価フレームワークを開発した。
急性呼吸不全(ARF)呼吸サポート療法における,より広範な表現型プロセスにおける特定の課題である概念分類にPHEONAを適用し,実証した。
テストしたサンプル概念から高い分類精度を達成し,計算表現法の改良を目的としたLCM法の可能性を示した。
関連論文リスト
- Diagnostic Reasoning in Natural Language: Computational Model and Application [68.47402386668846]
言語基底タスク(NL-DAR)の文脈における診断誘導推論(DAR)について検討する。
パール構造因果モデルに基づくNL-DARの新しいモデリングフレームワークを提案する。
得られたデータセットを用いて,NL-DARにおける人間の意思決定過程を解析する。
論文 参考訳(メタデータ) (2024-09-09T06:55:37Z) - A Large Language Model Outperforms Other Computational Approaches to the High-Throughput Phenotyping of Physician Notes [0.0]
本研究では,3つの計算手法を高スループット表現型化と比較する。
生成AIを取り入れたLarge Language Model(LLM)、深層学習を利用した自然言語処理(NLP)アプローチ、単語ベクトルと機械学習を組み合わせたハイブリッドアプローチ。
GPT-4(Large Language Model)を実装するアプローチは優れた性能を示した。
論文 参考訳(メタデータ) (2024-06-20T22:05:34Z) - BEACON: Benchmark for Comprehensive RNA Tasks and Language Models [60.02663015002029]
本稿では、最初の包括的なRNAベンチマークBEACON(textbfBEnchmtextbfArk for textbfCOmprehensive RtextbfNA Task and Language Models)を紹介する。
まずBEACONは、構造解析、機能研究、工学的応用を網羅した、これまでの広範囲にわたる研究から導かれた13のタスクから構成される。
第2に、CNNのような従来のアプローチや、言語モデルに基づく高度なRNA基盤モデルなど、さまざまなモデルについて検討し、これらのモデルのタスク固有のパフォーマンスに関する貴重な洞察を提供する。
第3に、重要なRNA言語モデルコンポーネントについて検討する。
論文 参考訳(メタデータ) (2024-06-14T19:39:19Z) - Clinical information extraction for Low-resource languages with Few-shot learning using Pre-trained language models and Prompting [12.166472806042592]
臨床資料から医療情報を自動抽出することはいくつかの課題をもたらす。
ドメイン適応とプロンプト手法の最近の進歩は、最小限のトレーニングデータで有望な結果を示した。
軽量でドメイン適応型事前訓練モデルが20ショットでトリガーされ、従来の分類モデルを30.5%精度で上回っていることを実証する。
論文 参考訳(メタデータ) (2024-03-20T08:01:33Z) - An evaluation of GPT models for phenotype concept recognition [0.4715973318447338]
臨床表現型および表現型アノテーションのためのGPT(Generative Pre-trained Transformer)モデルの性能について検討した。
その結果、適切な設定で、これらのモデルが芸術的パフォーマンスの状態を達成できることが示されている。
論文 参考訳(メタデータ) (2023-09-29T12:06:55Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - Time Associated Meta Learning for Clinical Prediction [78.99422473394029]
本稿では,時間関連メタラーニング(TAML)手法を提案する。
タスク分割後のスパーシリティ問題に対処するため、TAMLは時間情報共有戦略を採用し、正のサンプル数を増やす。
複数の臨床データセットに対するTAMLの有効性を示す。
論文 参考訳(メタデータ) (2023-03-05T03:54:54Z) - Large Language Models for Biomedical Knowledge Graph Construction:
Information extraction from EMR notes [0.0]
大規模言語モデル(LLM)に基づくエンドツーエンド機械学習ソリューションを提案する。
KG構築プロセスで使用される物質は、疾患、因子、治療、および疾患を経験中に患者と共存する症状である。
提案手法の応用は加齢に伴う黄斑変性に対して実証される。
論文 参考訳(メタデータ) (2023-01-29T15:52:33Z) - Patient Cohort Retrieval using Transformer Language Models [7.784753717089568]
機能工学やドメインの専門知識を必要とせずに,ニューラルネットワークモデルを用いて患者のコホートを検索するフレームワークを提案する。
我々のモデルのほとんどは、様々な評価指標でBM25ベースライン法より優れていることが分かりました。
論文 参考訳(メタデータ) (2020-09-10T19:40:41Z) - Machine Learning in Nano-Scale Biomedical Engineering [77.75587007080894]
ナノスケールバイオメディカルエンジニアリングにおける機械学習の利用に関する既存の研究について概説する。
ML問題として定式化できる主な課題は、3つの主要なカテゴリに分類される。
提示された方法論のそれぞれについて、その原則、応用、制限に特に重点を置いている。
論文 参考訳(メタデータ) (2020-08-05T15:45:54Z) - Domain-Specific Language Model Pretraining for Biomedical Natural
Language Processing [73.37262264915739]
バイオメディシンなどのラベルなしテキストの少ないドメインでは、スクラッチから言語モデルを事前学習することで、かなりの利益が得られることを示す。
実験の結果, ドメイン固有のプレトレーニングは, 幅広い生物医学的NLPタスクの基盤となることが明らかとなった。
論文 参考訳(メタデータ) (2020-07-31T00:04:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。