論文の概要: A Systematic Analysis of Declining Medical Safety Messaging in Generative AI Models
- arxiv url: http://arxiv.org/abs/2507.08030v1
- Date: Tue, 08 Jul 2025 23:50:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.108007
- Title: A Systematic Analysis of Declining Medical Safety Messaging in Generative AI Models
- Title(参考訳): 生成型AIモデルにおける医療安全メッセージングの系統的分析
- Authors: Sonali Sharma, Ahmed M. Alaa, Roxana Daneshjou,
- Abstract要約: 退院者は,各出力の臨床的文脈に適合する保護措置として実施されなければならない。
パブリックモデルがより有能で権威的になるにつれて、ディファイアは臨床の文脈に適応する保護具として実装されなければならない。
- 参考スコア(独自算出の注目度): 15.595004938380812
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI models, including large language models (LLMs) and vision-language models (VLMs), are increasingly used to interpret medical images and answer clinical questions. Their responses often include inaccuracies; therefore, safety measures like medical disclaimers are critical to remind users that AI outputs are not professionally vetted or a substitute for medical advice. This study evaluated the presence of disclaimers in LLM and VLM outputs across model generations from 2022 to 2025. Using 500 mammograms, 500 chest X-rays, 500 dermatology images, and 500 medical questions, outputs were screened for disclaimer phrases. Medical disclaimer presence in LLM and VLM outputs dropped from 26.3% in 2022 to 0.97% in 2025, and from 19.6% in 2023 to 1.05% in 2025, respectively. By 2025, the majority of models displayed no disclaimers. As public models become more capable and authoritative, disclaimers must be implemented as a safeguard adapting to the clinical context of each output.
- Abstract(参考訳): 大規模言語モデル(LLM)や視覚言語モデル(VLM)を含むジェネレーティブAIモデルは、医療画像の解釈や臨床問題への回答にますます利用されている。
そのため、AIのアウトプットが専門的に精査されていない、あるいは医療アドバイスの代用でないことをユーザーに思い出させることは、医療のディスラプターのような安全対策が重要である。
本研究は,2022年から2025年までのモデル世代にわたるLLMおよびVLM出力における消音剤の存在を評価した。
500個のマンモグラム,500個の胸部X線写真,500個の皮膚科画像,500個の医学的質問紙を用いて,ディフラワーフレーズのアウトプットをスクリーニングした。
2022年には26.3%、2025年には0.97%、2023年には19.6%、2025年には1.05%だった。
2025年までには、ほとんどのモデルに不評は出なかった。
公開モデルはより有能で権威的になるにつれて、それぞれのアウトプットの臨床的文脈に適応した安全保護策として実施されなければならない。
関連論文リスト
- Cancer-Myth: Evaluating AI Chatbot on Patient Questions with False Presuppositions [16.21971764311474]
実際の患者から得られた癌関連質問に対して,大言語モデル(LLMs)を評価した。
LLMは、しばしば質問における偽の前提を認識または対処するのに失敗する。
以上の結果から,LSMの臨床的信頼性に重大なギャップがあることが示唆された。
論文 参考訳(メタデータ) (2025-04-15T16:37:32Z) - Medical Multimodal Model Stealing Attacks via Adversarial Domain Alignment [79.41098832007819]
医療マルチモーダル大言語モデル(MLLM)は医療システムにおいて重要な要素となっている。
医療データはプライバシー規制によって保護されていないため、医療MLLMは貴重な知的財産である。
本稿では,医療MLLMに対する最初の盗難攻撃であるAdversarial Domain Alignment(ADA-STEAL)を紹介する。
論文 参考訳(メタデータ) (2025-02-04T16:04:48Z) - Detecting Bias and Enhancing Diagnostic Accuracy in Large Language Models for Healthcare [0.2302001830524133]
バイアスドAIによる医療アドバイスと誤診は患者の安全を脅かす可能性がある。
本研究では、医療における倫理的かつ正確なAIを促進するために設計された新しいリソースを紹介する。
論文 参考訳(メタデータ) (2024-10-09T06:00:05Z) - MediConfusion: Can you trust your AI radiologist? Probing the reliability of multimodal medical foundation models [20.781551849965357]
医用ビジュアル質問回答(VQA)ベンチマークデータセットであるMedConfusionを紹介した。
現状のモデルは、画像のペアによって容易に混同され、それ以外は視覚的に異なっており、医療専門家にとってはっきりと区別されている。
また、医療における信頼性が高く信頼性の高いMLLMの新しい世代の設計に役立つモデル失敗の共通パターンを抽出する。
論文 参考訳(メタデータ) (2024-09-23T18:59:37Z) - GMAI-MMBench: A Comprehensive Multimodal Evaluation Benchmark Towards General Medical AI [67.09501109871351]
LVLM(Large Vision-Language Model)は、画像、テキスト、生理学的信号などの多様なデータタイプを扱うことができる。
GMAI-MMBenchは、よく分類されたデータ構造と、これまででもっとも包括的な一般医療用AIベンチマークである。
38の医療画像モダリティ、18の臨床関連タスク、18の部門、視覚質問回答(VQA)フォーマットの4つの知覚的粒度からなる284のデータセットで構成されている。
論文 参考訳(メタデータ) (2024-08-06T17:59:21Z) - CARES: A Comprehensive Benchmark of Trustworthiness in Medical Vision Language Models [92.04812189642418]
我々はCARESを紹介し,医療領域全体での医療LVLMの信頼性を評価することを目的とする。
我々は,Med-LVLMの信頼性を,信頼性,公正性,安全性,プライバシ,堅牢性,5次元にわたって評価する。
論文 参考訳(メタデータ) (2024-06-10T04:07:09Z) - Large Language Model Distilling Medication Recommendation Model [58.94186280631342]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language Models [72.8965643836841]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - Towards Expert-Level Medical Question Answering with Large Language
Models [16.882775912583355]
大規模言語モデル (LLMs) は医学的質問応答において大きな進歩をもたらした。
ここでは、基礎改善(PaLM2)、医療領域の細かな改善、戦略の推進を組み合わせ、ギャップを埋めるMedPaLM 2を提案する。
また, MedMC-ofQA, PubMed, MMLUの臨床トピックスデータセットに近づいたり, 最先端に近づいたりした。
論文 参考訳(メタデータ) (2023-05-16T17:11:29Z) - MedAlpaca -- An Open-Source Collection of Medical Conversational AI Models and Training Data [37.60056509129154]
大規模言語モデル(LLM)は、医療、診断、患者医療、教育を改善するためのかなりの約束を持っている。
しかし、患者のプライバシを保護するために、オンプレミスでデプロイできるオープンソースモデルが緊急に必要である。
本稿では、160,000以上のエントリからなる革新的なデータセットについて紹介する。
論文 参考訳(メタデータ) (2023-04-14T11:28:08Z) - ChatDoctor: A Medical Chat Model Fine-Tuned on a Large Language Model
Meta-AI (LLaMA) Using Medical Domain Knowledge [8.584905227066034]
本研究の目的は,医療アドバイスの精度を向上した専門言語モデルを作ることであった。
そこで我々は,10万件の患者-医師対話の大規模データセットを用いて,大規模言語モデルメタAI(LLaMA)の適応と精錬を行った。
実際の患者と医師の相互作用によるモデルの微調整により、患者のニーズを理解し、アドバイスを提供する能力は大幅に向上した。
論文 参考訳(メタデータ) (2023-03-24T15:29:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。