論文の概要: Clinical Notes Reveal Physician Fatigue
- arxiv url: http://arxiv.org/abs/2312.03077v1
- Date: Tue, 5 Dec 2023 19:00:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 17:03:26.112731
- Title: Clinical Notes Reveal Physician Fatigue
- Title(参考訳): 理学療法士の疲労に関する臨床的考察
- Authors: Chao-Chun Hsu, Ziad Obermeyer, Chenhao Tan
- Abstract要約: 疲労した医師が書いたメモを特定するためにモデルを訓練する。
黒とヒスパニックの患者は白人よりも12%と21%高い疲労を予測している。
我々のモデルは、疲労した医師がより予測可能なノートを書くことを示している。
- 参考スコア(独自算出の注目度): 25.544142231808205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physicians write notes about patients. In doing so, they reveal much about
themselves. Using data from 129,228 emergency room visits, we train a model to
identify notes written by fatigued physicians -- those who worked 5 or more of
the prior 7 days. In a hold-out set, the model accurately identifies notes
written by these high-workload physicians, and also flags notes written in
other high-fatigue settings: on overnight shifts, and after high patient
volumes. Model predictions also correlate with worse decision-making on at
least one important metric: yield of testing for heart attack is 18% lower with
each standard deviation increase in model-predicted fatigue. Finally, the model
indicates that notes written about Black and Hispanic patients have 12% and 21%
higher predicted fatigue than Whites -- larger than overnight vs. daytime
differences. These results have an important implication for large language
models (LLMs). Our model indicates that fatigued doctors write more predictable
notes. Perhaps unsurprisingly, because word prediction is the core of how LLMs
work, we find that LLM-written notes have 17% higher predicted fatigue than
real physicians' notes. This indicates that LLMs may introduce distortions in
generated text that are not yet fully understood.
- Abstract(参考訳): 医師は患者のメモを書きます。
そうすることで、彼らは自分自身について多くを明らかにします。
129,228件の救急室訪問のデータを使って、疲労した医師が書いたメモを識別するモデルを訓練した。
ホールドアウトセットでは、モデルがこれらの高負荷の医師によって書かれたメモを正確に識別し、他の高負荷設定で書かれたノートをフラグする。
モデル予測は、少なくとも1つの重要な指標において、より悪い意思決定と相関する: 心臓発作に対するテストの利得は、モデル予測疲労の標準偏差の増加とともに18%低い。
最後に、黒とヒスパニックの患者について書かれたメモは、白人よりも12%と21%高い疲労を予測していることを示している。
これらの結果は、大きな言語モデル(LLM)に重要な意味を持つ。
我々のモデルは、疲労した医師がより予測可能なメモを書くことを示している。
意外なことに、単語予測がLSMの動作のコアであるため、LSMで書かれたノートは実際の医師のノートよりも17%高い疲労を予測している。
これは、LLMがまだ完全に理解されていない生成テキストに歪みをもたらす可能性があることを示している。
関連論文リスト
- Equity in Healthcare: Analyzing Disparities in Machine Learning Predictions of Diabetic Patient Readmissions [2.321323878201932]
本研究では,糖尿病患者に対して,機械学習(ML)モデルを用いて患者の入院容積を正確に予測する方法について検討した。
私たちはDeep Learning、Generalized Linear Models、Gradient Boosting Machines (GBM)、Naive Bayesといったモデルを比較しました。
GBMは84.3%のF1スコアと82.2%の精度で、人口統計学的に読み書きを正確に予測した。
論文 参考訳(メタデータ) (2024-03-27T23:49:22Z) - Unmasking and Quantifying Racial Bias of Large Language Models in
Medical Report Generation [36.15505795527914]
GPT-3.5-turboやGPT-4のような大きな言語モデルは、医療専門家に約束を守る。
これらのモデルはよりコストが高く、白人の入院が長くなる傾向にある。
これらのバイアスは、現実世界の医療格差を反映している。
論文 参考訳(メタデータ) (2024-01-25T00:34:16Z) - Impact of Large Language Model Assistance on Patients Reading Clinical
Notes: A Mixed-Methods Study [47.61555826813361]
複雑な医療概念と臨床ノートの中の用語は、患者の理解を妨げ、不安を引き起こす可能性がある。
そこで我々は,ノートにコンテキストを付加し,情報を簡素化し,抽出する患者対応ツールを開発した。
臨床医による誤診で誤診がみられ, 誤診がみられた。
論文 参考訳(メタデータ) (2024-01-17T23:14:52Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - HuatuoGPT, towards Taming Language Model to Be a Doctor [67.96794664218318]
HuatuoGPTは医療相談のための大規模言語モデル(LLM)である。
我々は,ChatGPTのテクティット蒸留データと,教師付き微調整段階の医師のテクティトゥルワールドデータの両方を活用する。
論文 参考訳(メタデータ) (2023-05-24T11:56:01Z) - MedLens: Improve Mortality Prediction Via Medical Signs Selecting and
Regression [4.43322868663347]
データ品質の問題については文献では議論されていない。
我々はMEDLENSを設計し、統計による自動バイタルメディカルサイン選択手法と、高損失率時系列に対する柔軟なアプローチを用いて設計した。
精度は 0.96 AUC-ROC と 0.81 AUC-PR で、これは以前のベンチマークを超えている。
論文 参考訳(メタデータ) (2023-05-19T15:28:02Z) - Navigating the Grey Area: How Expressions of Uncertainty and
Overconfidence Affect Language Models [74.07684768317705]
LMはプロンプトにおける確実性のマーカーに非常に敏感であり、アクーは80%以上変化している。
その結果,高い確実性の表現は低い表現に比べて精度が低下し,事実動詞が性能を損なうのに対して,明らかな表現はパフォーマンスに寄与することがわかった。
これらの関連性は、LMが真に不確実性を反映するのではなく、観察された言語の使用に基づいていることを示唆している。
論文 参考訳(メタデータ) (2023-02-26T23:46:29Z) - Textual Data Augmentation for Patient Outcomes Prediction [67.72545656557858]
本稿では,患者の電子カルテに人工的な臨床ノートを作成するための新しいデータ拡張手法を提案する。
生成言語モデルGPT-2を微調整し、ラベル付きテキストを元のトレーニングデータで合成する。
今回,最も多い患者,すなわち30日間の寛解率について検討した。
論文 参考訳(メタデータ) (2022-11-13T01:07:23Z) - Write It Like You See It: Detectable Differences in Clinical Notes By
Race Lead To Differential Model Recommendations [15.535251319178379]
機械学習モデルと人間専門家が利用できる暗黙の人種情報のレベルについて検討する。
また,本研究の結果から,被験者の自己申告した人種を,明示的な人種指標から取り除かれた場合でも,臨床記録から特定できることがわかった。
以上の結果から,これらのテストノートに基づいてトレーニングしたモデルが,臨床治療決定における既存のバイアスを持続させる可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-08T18:24:11Z) - MSED: a multi-modal sleep event detection model for clinical sleep
analysis [62.997667081978825]
ポリソムノグラムで睡眠イベントを共同検出する,単一のディープニューラルネットワークアーキテクチャを設計した。
モデルの性能は,F1,精度,リコールスコア,および指標値と臨床値との相関で定量化した。
論文 参考訳(メタデータ) (2021-01-07T13:08:44Z) - Enhancing the Interpretability of Deep Models in Heathcare Through
Attention: Application to Glucose Forecasting for Diabetic People [4.692400531340393]
我々は,タイプ2 IDIABとタイプ1 OhioT1DMデータセットのRETAINモデルを評価する。
我々は、RETAINモデルが精度と解釈可能性の間に非常に良い妥協をもたらすことを示した。
論文 参考訳(メタデータ) (2020-09-08T13:27:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。