論文の概要: CHiLL: Zero-shot Custom Interpretable Feature Extraction from Clinical
Notes with Large Language Models
- arxiv url: http://arxiv.org/abs/2302.12343v1
- Date: Thu, 23 Feb 2023 21:23:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 15:08:32.706637
- Title: CHiLL: Zero-shot Custom Interpretable Feature Extraction from Clinical
Notes with Large Language Models
- Title(参考訳): chill: 大きな言語モデルを用いた臨床ノートからのゼロショットカスタム解釈可能な特徴抽出
- Authors: Denis Jered McInerney, Geoffrey Young, Jan-Willem van de Meent, Byron
C. Wallace
- Abstract要約: 大規模言語モデル(LLM)は、NLPの高速かつ劇的な進歩をもたらし、現在、新しいタスクで強力な少数およびゼロショット機能を提供している。
線形モデルの高次機能の自然言語仕様化を可能にするために,LLMを用いたCHiLL(Crafting High-Level Latents)を提案する。
自動抽出した特徴量を用いた線形モデルは参照特徴量を用いたモデルに比較可能であり,解釈可能性の向上が期待できる。
- 参考スコア(独自算出の注目度): 26.035422424059178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have yielded fast and dramatic progress in NLP,
and now offer strong few- and zero-shot capabilities on new tasks, reducing the
need for annotation. This is especially exciting for the medical domain, in
which supervision is often scant and expensive. At the same time, model
predictions are rarely so accurate that they can be trusted blindly. Clinicians
therefore tend to favor "interpretable" classifiers over opaque LLMs. For
example, risk prediction tools are often linear models defined over manually
crafted predictors that must be laboriously extracted from EHRs. We propose
CHiLL (Crafting High-Level Latents), which uses LLMs to permit natural language
specification of high-level features for linear models via zero-shot feature
extraction using expert-composed queries. This approach has the promise to
empower physicians to use their domain expertise to craft features which are
clinically meaningful for a downstream task of interest, without having to
manually extract these from raw EHR (as often done now). We are motivated by a
real-world risk prediction task, but as a reproducible proxy, we use MIMIC-III
and MIMIC-CXR data and standard predictive tasks (e.g., 30-day readmission) to
evaluate our approach. We find that linear models using automatically extracted
features are comparably performant to models using reference features, and
provide greater interpretability than linear models using "Bag-of-Words"
features. We verify that learned feature weights align well with clinical
expectations.
- Abstract(参考訳): 大規模言語モデル(LLM)は、NLPの高速かつ劇的な進歩をもたらし、現在、新しいタスクで強力な少数およびゼロショット機能を提供し、アノテーションの必要性を減らしている。
これは医療分野にとって特にエキサイティングなもので、監督がスキャンされ、費用がかかることが多い。
同時に、モデル予測が極めて正確で、盲目的に信頼できることは滅多にない。
したがって、臨床医は不透明なLDMよりも「解釈可能な」分類器を好む傾向がある。
例えば、リスク予測ツールは、手動で作成した予測器上で定義された線形モデルであることが多い。
そこで我々は,LLMを用いて,ゼロショット特徴抽出による線形モデルの高レベル特徴の自然言語指定を可能にするCHiLL(Crafting High-Level Latents)を提案する。
このアプローチは、医師が自身のドメインの専門知識を使って、(しばしば行われているように)生のehrから手作業で抽出する必要なしに、下流のタスクにとって臨床的に有意義な特徴を創造できるようにすることを約束する。
我々は、現実世界のリスク予測タスクに動機付けられているが、再現可能なプロキシとして、MIMIC-IIIとMIMIC-CXRデータと標準予測タスク(例:30日可読化)を用いてアプローチを評価している。
自動抽出された特徴を用いた線形モデルは参照特徴を用いたモデルと互換性があり、"Bag-of-Words"特徴を用いた線形モデルよりも高い解釈性が得られる。
学習した機能重みが臨床上の期待に合致していることを確認する。
関連論文リスト
- Prompting Large Language Models for Zero-Shot Clinical Prediction with
Structured Longitudinal Electronic Health Record Data [7.815738943706123]
大規模言語モデル(LLM)は、伝統的に自然言語処理に向いている。
本研究では, GPT-4 などの LLM の EHR データへの適応性について検討する。
EHRデータの長手性、スパース性、知識を注入した性質に対応するため、本研究は特定の特徴を考慮に入れている。
論文 参考訳(メタデータ) (2024-01-25T20:14:50Z) - A Quantitative Approach to Understand Self-Supervised Models as
Cross-lingual Feature Extractors [9.279391026742658]
特徴抽出器としてのモデルの性能に及ぼすモデルサイズ,トレーニング目標,モデルアーキテクチャの影響を解析する。
我々は,抽出した表現の音声情報と合成情報を測定するために,音声合成比(PSR)という新しい尺度を開発した。
論文 参考訳(メタデータ) (2023-11-27T15:58:28Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data
Selection for Instruction Tuning [54.222609226692015]
我々は大規模言語モデルのための自己誘導手法を導入し、大規模なオープンソースデータセットからサクラサンプルを自律的に識別し、選択する。
私たちの重要なイノベーションであるIFD(Instruction-Following Difficulty)メトリックは、モデルが期待する応答と自動生成技術との間の相違を識別するための重要なツールとして現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Local Large Language Models for Complex Structured Medical Tasks [0.0]
本稿では,大規模言語モデルの言語推論機能と,複雑なドメイン特化タスクに取り組むための局所学習の利点を組み合わせたアプローチを提案する。
具体的には,病理報告から構造化条件コードを抽出し,そのアプローチを実証する。
論文 参考訳(メタデータ) (2023-08-03T12:36:13Z) - Automated Labeling of German Chest X-Ray Radiology Reports using Deep
Learning [50.591267188664666]
本稿では,ルールベースのドイツ語CheXpertモデルによってラベル付けされたレポートに基づいて,ディープラーニングに基づくCheXpertラベル予測モデルを提案する。
その結果,3つのタスクすべてにおいて,ルールベースモデルを大幅に上回ったアプローチの有効性が示された。
論文 参考訳(メタデータ) (2023-06-09T16:08:35Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - Offline RL for Natural Language Generation with Implicit Language Q
Learning [87.76695816348027]
ユーザ指定タスクの完了に関して、大きな言語モデルは矛盾する可能性がある。
本稿では,RLのフレキシブル・ユーティリティ・フレームワークと教師あり学習能力を組み合わせた新しいRL手法を提案する。
ILQLの実証的な検証に加えて、オフラインRLが自然言語生成設定で有用となるような、詳細な経験的分析状況も提示する。
論文 参考訳(メタデータ) (2022-06-05T18:38:42Z) - Learning summary features of time series for likelihood free inference [93.08098361687722]
時系列データから要約機能を自動的に学習するためのデータ駆動型戦略を提案する。
以上の結果から,データから要約的特徴を学習することで,手作りの値に基づいてLFI手法よりも優れる可能性が示唆された。
論文 参考訳(メタデータ) (2020-12-04T19:21:37Z) - Learning Mixtures of Random Utility Models with Features from Incomplete
Preferences [34.50516583809234]
それぞれの代替品が、おそらくエージェント間で異なる、機能のベクターを持つような、機能とそれらの混合を伴うRUMについて検討する。
我々はRUMと特徴の混合を不完全な嗜好を生成し、その識別性を特徴づけるモデルに拡張する。
本実験は,PL上でのMLEの有効性を示すものであり,統計効率と計算効率のトレードオフがある。
論文 参考訳(メタデータ) (2020-06-06T13:47:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。