論文の概要: Self-Diagnosis and Large Language Models: A New Front for Medical
Misinformation
- arxiv url: http://arxiv.org/abs/2307.04910v1
- Date: Mon, 10 Jul 2023 21:28:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-12 16:50:30.793304
- Title: Self-Diagnosis and Large Language Models: A New Front for Medical
Misinformation
- Title(参考訳): 自己診断と大規模言語モデル:医療ミス情報の新たな前線
- Authors: Francois Barnard, Marlize Van Sittert, Sirisha Rambhatla
- Abstract要約: 一般ユーザによる自己診断のレンズから,大規模言語モデル(LLM)の性能を評価する。
本研究では,実世界の事例を模倣したオープンエンド質問に対する応答を評価するテスト手法を開発した。
a) これらのモデルでは, 既知よりもパフォーマンスが悪く, b) 誤ったレコメンデーションを述べる際に, 過度な自信を含む特異な行動を示すことが明らかとなった。
- 参考スコア(独自算出の注目度): 8.738092015092207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Improving healthcare quality and access remains a critical concern for
countries worldwide. Consequently, the rise of large language models (LLMs) has
erupted a wealth of discussion around healthcare applications among researchers
and consumers alike. While the ability of these models to pass medical exams
has been used to argue in favour of their use in medical training and
diagnosis, the impact of their inevitable use as a self-diagnostic tool and
their role in spreading healthcare misinformation has not been evaluated. In
this work, we critically evaluate LLMs' capabilities from the lens of a general
user self-diagnosing, as well as the means through which LLMs may aid in the
spread of medical misinformation. To accomplish this, we develop a testing
methodology which can be used to evaluate responses to open-ended questions
mimicking real-world use cases. In doing so, we reveal that a) these models
perform worse than previously known, and b) they exhibit peculiar behaviours,
including overconfidence when stating incorrect recommendations, which
increases the risk of spreading medical misinformation.
- Abstract(参考訳): 医療の質とアクセスの改善は、世界中の国々にとって重要な関心事である。
その結果、大規模言語モデル(llm)の台頭は、研究者や消費者の間で医療アプリケーションに関する豊富な議論を引き起こした。
これらのモデルが医学試験に合格する能力は、医学訓練や診断に利用することを好んで論じるために使われてきたが、自己診断ツールとしての使用が避けられないことや、医療情報の拡散における役割は評価されていない。
本研究では,一般ユーザによる自己診断のレンズからLLMの能力を評価するとともに,LLMが医療的誤報の拡散に有効であることを示す。
そこで本研究では,実世界の事例を模倣したオープンエンド質問に対する応答を評価するテスト手法を開発した。
そうすることで、私たちはそれを明らかにします。
a) これらのモデルは,既知よりも性能が悪く,かつ
b) 医療上の誤報を広めるリスクを増大させる不適切な勧告を述べる際の過信を含む特異な行動を示すこと。
関連論文リスト
- Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - The Role of Language Models in Modern Healthcare: A Comprehensive Review [2.048226951354646]
医療における大規模言語モデル(LLM)の適用は注目されている。
本稿では,言語モデルの初期から現在までの軌跡を概観する。
論文 参考訳(メタデータ) (2024-09-25T12:15:15Z) - MediConfusion: Can you trust your AI radiologist? Probing the reliability of multimodal medical foundation models [20.781551849965357]
医用ビジュアル質問回答(VQA)ベンチマークデータセットであるMedConfusionを紹介した。
現状のモデルは、画像のペアによって容易に混同され、それ以外は視覚的に異なっており、医療専門家にとってはっきりと区別されている。
また、医療における信頼性が高く信頼性の高いMLLMの新しい世代の設計に役立つモデル失敗の共通パターンを抽出する。
論文 参考訳(メタデータ) (2024-09-23T18:59:37Z) - STLLaVA-Med: Self-Training Large Language and Vision Assistant for Medical Question-Answering [58.79671189792399]
STLLaVA-Medは、医療ビジュアルインストラクションデータを自動生成できるポリシーモデルを訓練するために設計されている。
STLLaVA-Medの有効性とデータ効率を3つの主要な医用視覚質問応答(VQA)ベンチマークで検証した。
論文 参考訳(メタデータ) (2024-06-28T15:01:23Z) - Large Language Model Distilling Medication Recommendation Model [61.89754499292561]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - MedLM: Exploring Language Models for Medical Question Answering Systems [2.84801080855027]
大きな言語モデル(LLM)とその高度な生成能力は、様々なNLPタスクにおいて有望であることを示している。
本研究の目的は,医療用Q&Aにおける一般用および医療用蒸留機の性能を比較することである。
この知見は、医学領域における特定の用途における異なるLMの適合性に関する貴重な知見を提供する。
論文 参考訳(メタデータ) (2024-01-21T03:37:47Z) - Medical Foundation Models are Susceptible to Targeted Misinformation
Attacks [3.252906830953028]
大規模言語モデル(LLM)は幅広い医学知識を持ち、多くの領域にわたって医療情報を推論することができる。
モデルの重量のわずか1.1%を目標に操作することで、医学におけるLSMの脆弱性を実証する。
我々は1038件の誤った生物医学的事実のセットでこの知見を検証した。
論文 参考訳(メタデータ) (2023-09-29T06:44:36Z) - Language models are susceptible to incorrect patient self-diagnosis in
medical applications [0.0]
患者からの自己診断報告を含むように修正された米国の医療委員会試験からの複数項目の質問を含む様々なLSMを提示する。
以上の結果から, 誤った偏見検証情報を提案すると, LLMの診断精度は劇的に低下することが明らかとなった。
論文 参考訳(メタデータ) (2023-09-17T19:56:39Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。