論文の概要: CHiLL: Zero-shot Custom Interpretable Feature Extraction from Clinical
Notes with Large Language Models
- arxiv url: http://arxiv.org/abs/2302.12343v1
- Date: Thu, 23 Feb 2023 21:23:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 15:08:32.706637
- Title: CHiLL: Zero-shot Custom Interpretable Feature Extraction from Clinical
Notes with Large Language Models
- Title(参考訳): chill: 大きな言語モデルを用いた臨床ノートからのゼロショットカスタム解釈可能な特徴抽出
- Authors: Denis Jered McInerney, Geoffrey Young, Jan-Willem van de Meent, Byron
C. Wallace
- Abstract要約: 大規模言語モデル(LLM)は、NLPの高速かつ劇的な進歩をもたらし、現在、新しいタスクで強力な少数およびゼロショット機能を提供している。
線形モデルの高次機能の自然言語仕様化を可能にするために,LLMを用いたCHiLL(Crafting High-Level Latents)を提案する。
自動抽出した特徴量を用いた線形モデルは参照特徴量を用いたモデルに比較可能であり,解釈可能性の向上が期待できる。
- 参考スコア(独自算出の注目度): 26.035422424059178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have yielded fast and dramatic progress in NLP,
and now offer strong few- and zero-shot capabilities on new tasks, reducing the
need for annotation. This is especially exciting for the medical domain, in
which supervision is often scant and expensive. At the same time, model
predictions are rarely so accurate that they can be trusted blindly. Clinicians
therefore tend to favor "interpretable" classifiers over opaque LLMs. For
example, risk prediction tools are often linear models defined over manually
crafted predictors that must be laboriously extracted from EHRs. We propose
CHiLL (Crafting High-Level Latents), which uses LLMs to permit natural language
specification of high-level features for linear models via zero-shot feature
extraction using expert-composed queries. This approach has the promise to
empower physicians to use their domain expertise to craft features which are
clinically meaningful for a downstream task of interest, without having to
manually extract these from raw EHR (as often done now). We are motivated by a
real-world risk prediction task, but as a reproducible proxy, we use MIMIC-III
and MIMIC-CXR data and standard predictive tasks (e.g., 30-day readmission) to
evaluate our approach. We find that linear models using automatically extracted
features are comparably performant to models using reference features, and
provide greater interpretability than linear models using "Bag-of-Words"
features. We verify that learned feature weights align well with clinical
expectations.
- Abstract(参考訳): 大規模言語モデル(LLM)は、NLPの高速かつ劇的な進歩をもたらし、現在、新しいタスクで強力な少数およびゼロショット機能を提供し、アノテーションの必要性を減らしている。
これは医療分野にとって特にエキサイティングなもので、監督がスキャンされ、費用がかかることが多い。
同時に、モデル予測が極めて正確で、盲目的に信頼できることは滅多にない。
したがって、臨床医は不透明なLDMよりも「解釈可能な」分類器を好む傾向がある。
例えば、リスク予測ツールは、手動で作成した予測器上で定義された線形モデルであることが多い。
そこで我々は,LLMを用いて,ゼロショット特徴抽出による線形モデルの高レベル特徴の自然言語指定を可能にするCHiLL(Crafting High-Level Latents)を提案する。
このアプローチは、医師が自身のドメインの専門知識を使って、(しばしば行われているように)生のehrから手作業で抽出する必要なしに、下流のタスクにとって臨床的に有意義な特徴を創造できるようにすることを約束する。
我々は、現実世界のリスク予測タスクに動機付けられているが、再現可能なプロキシとして、MIMIC-IIIとMIMIC-CXRデータと標準予測タスク(例:30日可読化)を用いてアプローチを評価している。
自動抽出された特徴を用いた線形モデルは参照特徴を用いたモデルと互換性があり、"Bag-of-Words"特徴を用いた線形モデルよりも高い解釈性が得られる。
学習した機能重みが臨床上の期待に合致していることを確認する。
関連論文リスト
- When Raw Data Prevails: Are Large Language Model Embeddings Effective in Numerical Data Representation for Medical Machine Learning Applications? [8.89829757177796]
大規模言語モデルの最後の隠れ状態からベクター表現が医療診断および予後に有効であることを示す。
我々は,異常な生理的データを表すため,ゼロショット設定の命令調整LDMに着目し,それらのユーティリティを特徴抽出器として評価する。
医学MLタスクでは生データの特徴が依然として有効であることが示唆されているが、ゼロショットLSM埋め込みは競争力のある結果を示している。
論文 参考訳(メタデータ) (2024-08-15T03:56:40Z) - LLM-Select: Feature Selection with Large Language Models [64.5099482021597]
大規模言語モデル(LLM)は、データサイエンスの標準ツールに匹敵するパフォーマンスで、最も予測可能な機能を選択することができる。
以上の結果から,LSMはトレーニングに最適な機能を選択するだけでなく,そもそもどの機能を収集すべきかを判断する上でも有用である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-02T22:23:40Z) - LLMs can learn self-restraint through iterative self-reflection [57.26854891567574]
大規模言語モデル(LLM)は、特定のトピックに関連する知識と不確実性に基づいて、その振る舞いを動的に適応できなければならない。
この適応的行動は、私たちが自己規制と呼ぶもので、教えるのは簡単ではない。
モデルが信頼している場合にのみ応答を生成できるようにするユーティリティ関数を考案する。
論文 参考訳(メタデータ) (2024-05-15T13:35:43Z) - Large Language Models Can Automatically Engineer Features for Few-Shot Tabular Learning [35.03338699349037]
本稿では,機能エンジニアとして大規模言語モデルを用いる新しい文脈内学習フレームワークFeatLLMを提案する。
FeatLLMは高品質なルールを生成し、TabLLMやSTUNTなどよりも大幅に(平均で10%)優れている。
論文 参考訳(メタデータ) (2024-04-15T06:26:08Z) - Natural Language Programming in Medicine: Administering Evidence Based Clinical Workflows with Autonomous Agents Powered by Generative Large Language Models [29.05425041393475]
ジェネレーティブ・大型言語モデル(LLM)は医療において大きな可能性を秘めている。
本研究は, シミュレーション3次医療センターにおいて, 自律型エージェントとして機能するLSMの可能性を評価した。
論文 参考訳(メタデータ) (2024-01-05T15:09:57Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - An Iterative Optimizing Framework for Radiology Report Summarization with ChatGPT [80.33783969507458]
放射線医学報告の「印象」セクションは、放射線医と他の医師とのコミュニケーションにとって重要な基盤である。
近年の研究では、大規模医療用テキストデータを用いた印象自動生成の有望な成果が得られている。
これらのモデルは、しばしば大量の医療用テキストデータを必要とし、一般化性能が劣る。
論文 参考訳(メタデータ) (2023-04-17T17:13:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。