論文の概要: Clinical Language Understanding Evaluation (CLUE)
- arxiv url: http://arxiv.org/abs/2209.14377v1
- Date: Wed, 28 Sep 2022 19:14:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 17:02:43.615968
- Title: Clinical Language Understanding Evaluation (CLUE)
- Title(参考訳): 臨床言語理解評価(CLUE)
- Authors: Travis R. Goodwin, and Dina Demner-Fushman
- Abstract要約: 臨床言語理解評価(CLUE)ベンチマークを,MIMICデータから得られた4つの臨床言語理解タスク,標準トレーニング,開発,検証,テストセットを用いて提案する。
これらのデータにより、これらの臨床言語理解タスクの新しいモデルや方法の開発において、アプローチの直接比較、導入障壁の改善と削減が可能になることを願っています。
- 参考スコア(独自算出の注目度): 17.254884920876695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clinical language processing has received a lot of attention in recent years,
resulting in new models or methods for disease phenotyping, mortality
prediction, and other tasks. Unfortunately, many of these approaches are tested
under different experimental settings (e.g., data sources, training and testing
splits, metrics, evaluation criteria, etc.) making it difficult to compare
approaches and determine state-of-the-art. To address these issues and
facilitate reproducibility and comparison, we present the Clinical Language
Understanding Evaluation (CLUE) benchmark with a set of four clinical language
understanding tasks, standard training, development, validation and testing
sets derived from MIMIC data, as well as a software toolkit. It is our hope
that these data will enable direct comparison between approaches, improve
reproducibility, and reduce the barrier-to-entry for developing novel models or
methods for these clinical language understanding tasks.
- Abstract(参考訳): 近年,臨床言語処理に注目が集まっており,疾患の表現型付けや死亡予測などの新しいモデルや手法が提案されている。
残念ながら、これらのアプローチの多くは異なる実験的な設定(例えば、データソース、トレーニングとテストの分割、メトリクス、評価基準など)でテストされており、アプローチの比較や最先端の判断が難しい。
これらの課題に対処し、再現性と比較を容易にするために、MIMICデータから派生した4つの臨床言語理解タスク、標準訓練、開発、検証、テストセット、およびソフトウェアツールキットを備えた臨床言語理解評価(CLUE)ベンチマークを示す。
これらのデータにより、アプローチの直接比較、再現性の向上、臨床言語理解タスクのための新しいモデルや手法の開発における障壁の低減が期待できる。
関連論文リスト
- Meta-Learners for Partially-Identified Treatment Effects Across Multiple Environments [67.80453452949303]
観察データから条件平均治療効果(CATE)を推定することは、パーソナライズされた医療など多くの応用に関係している。
ここでは、観測データが複数の環境からやってくる広範囲な環境に焦点を当てる。
任意の機械学習モデルと組み合わせて使用可能な境界を推定するために、異なるモデルに依存しない学習者(いわゆるメタ学習者)を提案する。
論文 参考訳(メタデータ) (2024-06-04T16:31:43Z) - Retrieving and Refining: A Hybrid Framework with Large Language Models for Rare Disease Identification [4.215595156143688]
本研究では,従来の辞書ベースの自然言語処理(NLP)ツールと大規模言語モデル(LLM)の強力な機能を組み合わせた,新しいハイブリッド手法を提案する。
異なるサイズ・領域(一般・医療)の6つの大言語モデル(LLM)における様々なプロンプト戦略を評価する。
論文 参考訳(メタデータ) (2024-05-16T20:59:28Z) - Preserving the knowledge of long clinical texts using aggregated
ensembles of large language models [0.0]
臨床テキストには、様々な臨床結果予測タスクに使用できる、豊富で価値のある情報が含まれている。
BERTベースのモデルのような大きな言語モデルを臨床テキストに適用することは、2つの大きな課題をもたらす。
本稿では,大規模言語モデルの集合アンサンブルを用いて,長期臨床テキストの知識を保存するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:50:02Z) - ClinicalGPT: Large Language Models Finetuned with Diverse Medical Data
and Comprehensive Evaluation [5.690250818139763]
大規模言語モデルは、様々な自然言語処理(NLP)タスクにおいて例外的な性能を示した。
これらの進歩にもかかわらず、実際の不正確さ、推論能力、現実世界の経験の基盤の欠如など、医学的応用におけるその効果は限られている。
臨床シナリオに対して明示的に設計・最適化された言語モデルである臨床GPTを提案する。
論文 参考訳(メタデータ) (2023-06-16T16:56:32Z) - Language Models are Few-shot Learners for Prognostic Prediction [0.4254099382808599]
実際の患者の臨床データと分子プロファイルを用いた免疫療法の予後予測におけるトランスフォーマーと言語モデルの利用について検討する。
この研究は、複数のがんタイプにわたる予後予測におけるベースラインと言語モデルの有効性をベンチマークし、数発の条件下で異なる事前訓練された言語モデルの影響を調査する。
論文 参考訳(メタデータ) (2023-02-24T15:35:36Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [51.38557174322772]
中国初のバイオメディカル言語理解評価ベンチマークを提示する。
名前付きエンティティ認識、情報抽出、臨床診断正規化、単文/文対分類を含む自然言語理解タスクのコレクションである。
本研究は,現在の11種類の中国モデルによる実験結果について報告し,その実験結果から,現在最先端のニューラルモデルがヒトの天井よりもはるかに悪い性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-15T12:25:30Z) - Benchmarking Automated Clinical Language Simplification: Dataset,
Algorithm, and Evaluation [48.87254340298189]
我々はMedLaneという名の新しいデータセットを構築し、自動化された臨床言語簡易化手法の開発と評価を支援する。
我々は,人間のアノテーションの手順に従い,最先端のパフォーマンスを実現するDECLAREと呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-12-04T06:09:02Z) - Predicting Clinical Diagnosis from Patients Electronic Health Records
Using BERT-based Neural Networks [62.9447303059342]
医療コミュニティにおけるこの問題の重要性を示す。
本稿では,変換器 (BERT) モデルによる2方向表現の分類順序の変更について述べる。
約400万人のユニークな患者訪問からなる、大規模なロシアのEHRデータセットを使用します。
論文 参考訳(メタデータ) (2020-07-15T09:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。