論文の概要: Hallucinations in medical devices
- arxiv url: http://arxiv.org/abs/2508.14118v1
- Date: Mon, 18 Aug 2025 12:31:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.202768
- Title: Hallucinations in medical devices
- Title(参考訳): 医療機器の幻覚
- Authors: Jason Granstedt, Prabhat Kc, Rucha Deshpande, Victor Garcia, Aldo Badano,
- Abstract要約: 我々は,幻覚を,手作業に影響を及ぼすか,あるいは不明瞭であるような誤りの一種として示す,実用的で普遍的な定義を導入する。
この定義は、製品分野の幻覚に苦しむ医療機器の評価を容易にすることを目的としている。
- 参考スコア(独自算出の注目度): 0.37698262166557467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computer methods in medical devices are frequently imperfect and are known to produce errors in clinical or diagnostic tasks. However, when deep learning and data-based approaches yield output that exhibit errors, the devices are frequently said to hallucinate. Drawing from theoretical developments and empirical studies in multiple medical device areas, we introduce a practical and universal definition that denotes hallucinations as a type of error that is plausible and can be either impactful or benign to the task at hand. The definition aims at facilitating the evaluation of medical devices that suffer from hallucinations across product areas. Using examples from imaging and non-imaging applications, we explore how the proposed definition relates to evaluation methodologies and discuss existing approaches for minimizing the prevalence of hallucinations.
- Abstract(参考訳): 医療機器のコンピュータ手法は、しばしば不完全であり、臨床や診断のタスクでエラーを発生させることが知られている。
しかし、深層学習とデータに基づくアプローチがエラーを示す出力を出力すると、デバイスは幻覚であるとしばしば言われる。
複数の医療機器分野における理論的発展と実証研究から,幻覚をもっともらしい誤りの一種として示す実践的,普遍的な定義を導入する。
この定義は、製品分野の幻覚に苦しむ医療機器の評価を容易にすることを目的としている。
画像や非画像の応用例を用いて,提案した定義が評価手法とどのように関係しているかを考察し,幻覚の出現を最小化するための既存のアプローチについて議論する。
関連論文リスト
- Trustworthy Medical Imaging with Large Language Models: A Study of Hallucinations Across Modalities [3.1406146587437904]
大規模言語モデル(LLM)は、医療画像のタスクにますます応用されている。
これらのモデルは、しばしば幻覚を生じさせ、自信はあるが、誤ったアウトプットが臨床上の決定を誤解させる可能性がある。
本研究では、画像からテキストへの幻覚、X線、CT、MRIスキャンからの報告、およびテキストから画像への幻覚、そしてモデルが臨床的なプロンプトから医療画像を生成する2つの方向について検討する。
論文 参考訳(メタデータ) (2025-08-09T16:03:46Z) - A Survey of Multimodal Hallucination Evaluation and Detection [52.03164192840023]
MLLM(Multi-modal Large Language Models)は、視覚情報とテキスト情報を統合するための強力なパラダイムとして登場した。
これらのモデルはしばしば幻覚に悩まされ、もっともらしいように見えるコンテンツを生成するが、入力内容や確立された世界的知識と矛盾する。
本調査では,イメージ・トゥ・テキスト(I2T)およびテキスト・トゥ・イメージ(T2I)生成タスクを対象とした幻覚評価ベンチマークと検出方法の詳細なレビューを行う。
論文 参考訳(メタデータ) (2025-07-25T07:22:42Z) - Fact-Controlled Diagnosis of Hallucinations in Medical Text Summarization [8.057050705357973]
大きな言語モデル(LLM)の幻覚は、患者のケアと臨床的意思決定に重大なリスクをもたらす。
一般ドメイン検出器は、臨床幻覚の検出に苦慮し、ファクトコントロールされた幻覚の性能は、自然幻覚に対する効果を確実に予測できない。
幻覚を数えるファクトベースアプローチを開発し、既存の手法では利用できない説明可能性を提供する。
論文 参考訳(メタデータ) (2025-05-31T08:04:37Z) - MedHal: An Evaluation Dataset for Medical Hallucination Detection [2.5782420501870296]
MedHalは、医療用テキストの幻覚をモデルが検出できるかどうかを評価するために設計された、新しい大規模データセットである。
MedHalは,(1)多様な医学的テキストソースとタスクを取り入れ,(2)医学的幻覚検出モデルの訓練に適した注釈付きサンプルを大量に提供し,(3)モデル学習を導くための事実的不整合の説明を含むギャップに対処する。
論文 参考訳(メタデータ) (2025-04-11T14:55:15Z) - Medical Hallucinations in Foundation Models and Their Impact on Healthcare [53.97060824532454]
マルチモーダルデータの処理と生成が可能なファンデーションモデルは、医療におけるAIの役割を変革した。
医療幻覚を、モデルが誤解を招く医療内容を生成する場合の例と定義する。
以上の結果から,Chain-of-Thought (CoT) や Search Augmented Generation などの推論手法は,幻覚率を効果的に低減できることがわかった。
これらの知見は、ロバストな検出と緩和戦略のための倫理的かつ実践的な衝動を浮き彫りにした。
論文 参考訳(メタデータ) (2025-02-26T02:30:44Z) - CoMT: Chain-of-Medical-Thought Reduces Hallucination in Medical Report Generation [20.59298361626719]
医療報告生成における幻覚を緩和するためのチェーン・オブ・メディカル・シント・アプローチ(CoMT)を提案する。
CoMTは、診断手順を分解することで、人間の医師の認知過程を模倣しようとしている。
論文 参考訳(メタデータ) (2024-06-17T12:03:32Z) - Do Androids Know They're Only Dreaming of Electric Sheep? [45.513432353811474]
我々は,その幻覚行動を予測するために,トランスフォーマー言語モデルの内部表現を訓練したプローブを設計する。
我々の探査機は訓練が狭く、訓練領域に敏感であることが分かりました。
モデル状態が利用可能である場合,探索は言語モデル幻覚評価に代わる実現可能かつ効率的な代替手段であることが判明した。
論文 参考訳(メタデータ) (2023-12-28T18:59:50Z) - HalluciDoctor: Mitigating Hallucinatory Toxicity in Visual Instruction Data [102.56792377624927]
機械生成データに固有の幻覚は未発見のままである。
本稿では,クロスチェックパラダイムに基づく新しい幻覚検出・除去フレームワークであるHaluciDoctorを提案する。
LLaVAに比べて44.6%の幻覚を緩和し,競争性能を維持した。
論文 参考訳(メタデータ) (2023-11-22T04:52:58Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。