論文の概要: Patient Safety Risks from AI Scribes: Signals from End-User Feedback
- arxiv url: http://arxiv.org/abs/2512.04118v1
- Date: Mon, 01 Dec 2025 18:59:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:45.792031
- Title: Patient Safety Risks from AI Scribes: Signals from End-User Feedback
- Title(参考訳): AIによる患者の安全リスク - エンドユーザからのフィードバックからのシグナル
- Authors: Jessica Dai, Anwen Huang, Catherine Nasrallah, Rhiannon Croci, Hossein Soleimani, Sarah J. Pollet, Julia Adler-Milstein, Sara G. Murray, Jinoos Yazdany, Irene Y. Chen,
- Abstract要約: 定量的および定性的な分析は、AIの加入者が、転写エラーによって様々な患者の安全リスクを引き起こす可能性があることを示唆している。
絶対リスクの度合いを文脈化するためには、さらなる研究が必要である。
- 参考スコア(独自算出の注目度): 10.673099715322058
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI scribes are transforming clinical documentation at scale. However, their real-world performance remains understudied, especially regarding their impacts on patient safety. To this end, we initiate a mixed-methods study of patient safety issues raised in feedback submitted by AI scribe users (healthcare providers) in a large U.S. hospital system. Both quantitative and qualitative analysis suggest that AI scribes may induce various patient safety risks due to errors in transcription, most significantly regarding medication and treatment; however, further study is needed to contextualize the absolute degree of risk.
- Abstract(参考訳): AIの書き手は、大規模に臨床文書を変換している。
しかし、実際のパフォーマンスは、特に患者の安全性への影響について、まだ検討されていない。
この目的のために、我々は、米国の大規模病院システムにおいて、AI加入者(医療提供者)からのフィードバックによって提起された患者安全問題に関する混合手法の研究を開始した。
定量的および定性的な分析は、AI書記者が転写の誤りによって様々な患者の安全リスクを誘発しうることを示唆しているが、特に薬物や治療についての研究は、絶対的なリスクの程度を文脈化するために必要である。
関連論文リスト
- Medical Red Teaming Protocol of Language Models: On the Importance of User Perspectives in Healthcare Settings [48.096652370210016]
本稿では,患者と臨床医の両方の視点で医療領域に適した安全評価プロトコルを提案する。
医療用LLMの安全性評価基準を3つの異なる視点を取り入れたレッドチームで定義した最初の研究である。
論文 参考訳(メタデータ) (2025-07-09T19:38:58Z) - Trustworthy Medical Question Answering: An Evaluation-Centric Survey [40.76054471378203]
医療質問応答システムにおける信頼性の6つの重要な側面を体系的に検討した。
モデル改善を促進する評価誘導手法を解析する。
我々は, LLM を用いた医療用QAの安全性, 信頼性, 透明性の確保に向けた今後の研究方針を提案する。
論文 参考訳(メタデータ) (2025-06-04T07:48:10Z) - Safety challenges of AI in medicine in the era of large language models [23.817939398729955]
大規模言語モデル(LLM)は、医療従事者、患者、研究者に新たな機会を提供する。
AIとLLMはより強力になり、いくつかの医療タスクにおいて超人的パフォーマンスを達成するにつれ、その安全性に対する公衆の懸念が高まっている。
本稿では,LLM時代のAI利用の新たなリスクについて検討する。
論文 参考訳(メタデータ) (2024-09-11T13:47:47Z) - The doctor will polygraph you now: ethical concerns with AI for fact-checking patients [0.23248585800296404]
社会行動予測のための人工知能(AI)手法が提案されている。
これにより、患者のデータに対する敬意、プライバシ、コントロールに関する新たな倫理的懸念が生まれます。
論文 参考訳(メタデータ) (2024-08-15T02:55:30Z) - Challenges for Responsible AI Design and Workflow Integration in Healthcare: A Case Study of Automatic Feeding Tube Qualification in Radiology [35.284458448940796]
ナトリウムガスチューブ(NGT)は、鼻から胃に挿入されたチューブを供給し、栄養や薬品を供給している。
近年のAI開発は、チェストX線画像からNGT配置を堅牢に検出する可能性を示している。
本稿では,この問題に対する人間中心のアプローチを提案するとともに,コンテキスト調査および15の臨床ステークホルダとの詳細なインタビューの結果から得られた知見について述べる。
論文 参考訳(メタデータ) (2024-05-08T14:16:22Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。