論文の概要: Triggering hallucinations in model-based MRI reconstruction via adversarial perturbations
- arxiv url: http://arxiv.org/abs/2602.18536v1
- Date: Fri, 20 Feb 2026 11:55:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.148558
- Title: Triggering hallucinations in model-based MRI reconstruction via adversarial perturbations
- Title(参考訳): 逆行性摂動によるMRI画像再構成におけるトリガー幻覚
- Authors: Suna Buğday, Yvan Saeys, Jonathan Peck,
- Abstract要約: 幻覚は、誤った診断につながる可能性があるため、患者の健康を危険にさらす可能性がある。
本研究では、磁気共鳴画像再構成の文脈において、最先端の生成モデルが幻覚に苦しむ程度を定量化することを目的とする。
UNetとエンドツーエンドのVarNetアーキテクチャを用いて,脳と膝の画像を高速MRIデータセットから評価する。
- 参考スコア(独自算出の注目度): 3.325046116674658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models are increasingly used to improve the quality of medical imaging, such as reconstruction of magnetic resonance images and computed tomography. However, it is well-known that such models are susceptible to hallucinations: they may insert features into the reconstructed image which are not actually present in the original image. In a medical setting, such hallucinations may endanger patient health as they can lead to incorrect diagnoses. In this work, we aim to quantify the extent to which state-of-the-art generative models suffer from hallucinations in the context of magnetic resonance image reconstruction. Specifically, we craft adversarial perturbations resembling random noise for the unprocessed input images which induce hallucinations when reconstructed using a generative model. We perform this evaluation on the brain and knee images from the fastMRI data set using UNet and end-to-end VarNet architectures to reconstruct the images. Our results show that these models are highly susceptible to small perturbations and can be easily coaxed into producing hallucinations. This fragility may partially explain why hallucinations occur in the first place and suggests that a carefully constructed adversarial training routine may reduce their prevalence. Moreover, these hallucinations cannot be reliably detected using traditional image quality metrics. Novel approaches will therefore need to be developed to detect when hallucinations have occurred.
- Abstract(参考訳): 生成モデルは、磁気共鳴画像の再構成やCTなどの医療画像の品質向上にますます利用されている。
しかし、これらのモデルが幻覚の影響を受けやすいことはよく知られており、本来の画像には存在しない再構成画像に特徴を挿入することができる。
医療現場では、このような幻覚は患者の健康を危険にさらし、誤った診断につながる可能性がある。
本研究では、磁気共鳴画像再構成の文脈において、最先端の生成モデルが幻覚に苦しむ程度を定量化することを目的とする。
具体的には、生成モデルを用いて再構成した際、幻覚を誘発する未処理の入力画像に対して、ランダムノイズに類似した逆方向の摂動を発生させる。
我々は、UNetとエンドツーエンドのVarNetアーキテクチャを用いて、高速MRIデータセットから脳と膝の画像を評価し、画像の再構成を行う。
以上の結果から,これらのモデルは小さな摂動の影響を受けやすく,幻覚を発生させるのが容易であることが示唆された。
この脆弱さは、そもそも幻覚が起こる理由を部分的に説明し、慎重に構築された敵の訓練ルーチンがそれらの頻度を減少させる可能性があることを示唆している。
さらに、これらの幻覚は、従来の画像品質指標を用いて確実に検出することはできない。
したがって、幻覚の発生を検知するために新しいアプローチを開発する必要がある。
関連論文リスト
- HalluGen: Synthesizing Realistic and Controllable Hallucinations for Evaluating Image Restoration [8.702496582146042]
HalluGenは、現実的な幻覚を制御可能なタイプ、位置、重大さで合成する拡散ベースのフレームワークである。
我々は4,350個の注釈付き画像からなる最初の大規模幻覚データセットを構築した。
HalluGenとそのオープンデータセットは、安全クリティカルな画像復元における幻覚を評価するための、最初のスケーラブルな基盤を確立している。
論文 参考訳(メタデータ) (2025-12-03T01:20:00Z) - Counting Hallucinations in Diffusion Models [34.45858211220468]
拡散確率モデル(DPM)は、画像やビデオ合成などの生成タスクにおいて顕著な進歩を見せている。
彼らはしばしば、現実世界の知識と矛盾する幻覚的なサンプル(幻覚)を生産する。
その流行にもかかわらず、そのような幻覚を体系的に定量化するための実現可能な方法論の欠如は進歩を妨げている。
論文 参考訳(メタデータ) (2025-10-15T01:48:04Z) - GHOST: Hallucination-Inducing Image Generation for Multimodal LLMs [61.829473661517675]
本稿では,幻覚を誘発する画像を積極的に生成することにより,MLLMをストレステストする手法であるGHOSTを紹介する。
GHOSTは完全に自動化されており、人間の監督や事前の知識を必要としない。
GLM-4.1V-Thinkingのような推論モデルを含む様々なモデルにおいて本手法の評価を行い,従来のデータ駆動探索法と比較して28%以上の幻覚成功率を達成する。
論文 参考訳(メタデータ) (2025-09-29T17:59:23Z) - Trustworthy Medical Imaging with Large Language Models: A Study of Hallucinations Across Modalities [3.1406146587437904]
大規模言語モデル(LLM)は、医療画像のタスクにますます応用されている。
これらのモデルは、しばしば幻覚を生じさせ、自信はあるが、誤ったアウトプットが臨床上の決定を誤解させる可能性がある。
本研究では、画像からテキストへの幻覚、X線、CT、MRIスキャンからの報告、およびテキストから画像への幻覚、そしてモデルが臨床的なプロンプトから医療画像を生成する2つの方向について検討する。
論文 参考訳(メタデータ) (2025-08-09T16:03:46Z) - Generate, but Verify: Reducing Hallucination in Vision-Language Models with Retrospective Resampling [78.78822033285938]
VLM(Vision-Language Models)は視覚的理解に優れ、視覚幻覚に悩まされることが多い。
本研究では,幻覚を意識したトレーニングとオンザフライの自己検証を統合した統合フレームワークREVERSEを紹介する。
論文 参考訳(メタデータ) (2025-04-17T17:59:22Z) - Why and How LLMs Hallucinate: Connecting the Dots with Subsequence Associations [82.42811602081692]
本稿では,幻覚を体系的に追跡・理解するサブシーケンス・アソシエーション・フレームワークを提案する。
主要な洞察は、支配的な幻覚協会が忠実なものを上回るときに生じる幻覚である。
ランダムな入力コンテキストにおける幻覚の確率を解析することにより因果列を同定するトレースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T06:34:45Z) - Hallucinations in Neural Automatic Speech Recognition: Identifying
Errors and Hallucinatory Models [11.492702369437785]
幻覚は、ソースの発声とは意味的に無関係であるが、それでも流動的でコヒーレントである。
単語誤り率などの一般的なメトリクスは、幻覚モデルと非幻覚モデルとを区別できないことを示す。
本研究は,幻覚を識別する枠組みを考案し,その意味的関係と基礎的真理と流布との関係を解析する。
論文 参考訳(メタデータ) (2024-01-03T06:56:56Z) - Volumetric Reconstruction Resolves Off-Resonance Artifacts in Static and
Dynamic PROPELLER MRI [76.60362295758596]
磁気共鳴イメージング(MRI)におけるオフ共鳴アーティファクトは、画像ボリューム内のスピンの実際の共鳴周波数が空間情報を符号化するのに使用される期待周波数と異なる場合に発生する視覚歪みである。
本稿では,2次元MRI再構成問題を3次元に引き上げ,このオフ共鳴をモデル化するための「スペクトル」次元を導入することで,これらのアーチファクトを解決することを提案する。
論文 参考訳(メタデータ) (2023-11-22T05:44:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。