論文の概要: Back-in-Time Diffusion: Unsupervised Detection of Medical Deepfakes
- arxiv url: http://arxiv.org/abs/2407.15169v2
- Date: Mon, 21 Oct 2024 07:57:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 15:56:37.717607
- Title: Back-in-Time Diffusion: Unsupervised Detection of Medical Deepfakes
- Title(参考訳): バック・イン・タイム拡散:医療用ディープフェイクの教師なし検出
- Authors: Fred Grabovski, Lior Yasur, Guy Amit, Yisroel Mirsky,
- Abstract要約: 拡散モデルに基づく医用画像のための新しい異常検出法を提案する。
モデルに疑似画像上の拡散を逆転させることにより、類似したプロセスを用いて合成内容を検出する方法を示す。
本手法は非監視検出器の他の状態よりも有意に優れており,AUCは0.79から0.9、除去用0.91から0.96から0.9に増加した。
- 参考スコア(独自算出の注目度): 3.2720947374803777
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent progress in generative models has made it easier for a wide audience to edit and create image content, raising concerns about the proliferation of deepfakes, especially in healthcare. Despite the availability of numerous techniques for detecting manipulated images captured by conventional cameras, their applicability to medical images is limited. This limitation stems from the distinctive forensic characteristics of medical images, a result of their imaging process. In this work we propose a novel anomaly detector for medical imagery based on diffusion models. Normally, diffusion models are used to generate images. However, we show how a similar process can be used to detect synthetic content by making a model reverse the diffusion on a suspected image. We evaluate our method on the task of detecting fake tumors injected and removed from CT and MRI scans. Our method significantly outperforms other state of the art unsupervised detectors with an increased AUC of 0.9 from 0.79 for injection and of 0.96 from 0.91 for removal on average. We also explore our hypothesis using AI explainability tools and publish our code and new medical deepfake datasets to encourage further research into this domain.
- Abstract(参考訳): 近年の生成モデルの発展により、画像コンテンツの編集や作成が容易になり、特に医療におけるディープフェイクの拡散への懸念が高まっている。
従来のカメラで捉えた操作画像を検出する技術が多数存在するが、医療画像への適用性は限られている。
この制限は、医用画像の特徴的な法医学的特徴、すなわち画像処理の結果に由来する。
本研究では拡散モデルに基づく医用画像のための新しい異常検出法を提案する。
通常、拡散モデルを用いて画像を生成する。
しかし、モデルに疑似画像上の拡散を逆転させることにより、類似したプロセスを用いて合成内容を検出する方法を示す。
われわれはCTおよびMRIで偽腫瘍を検出・除去する作業について検討した。
我々の手法は、他の最先端の非監視検出器よりはるかに優れており、AUCは0.79から0.9、除去は0.91から0.96から平均して0.9である。
また、AI説明可能性ツールを使用して仮説を探求し、コードと新しい医療用ディープフェイクデータセットを公開し、この領域のさらなる研究を奨励します。
関連論文リスト
- DiffDoctor: Diagnosing Image Diffusion Models Before Treating [57.82359018425674]
DiffDoctorは2段階のパイプラインで、画像拡散モデルがより少ないアーティファクトを生成するのを支援する。
我々は100万以上の欠陥のある合成画像のデータセットを収集し、効率的なHuman-in-the-loopアノテーションプロセスを構築した。
そして、学習したアーティファクト検出器を第2段階に巻き込み、各画像に画素ごとの信頼マップを割り当てて拡散モデルをチューニングする。
論文 参考訳(メタデータ) (2025-01-21T18:56:41Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
大規模なデータセットのトレーニングによるスケーリングは、画像生成の品質と忠実度を高め、拡散モデルによる操作を可能にすることが示されている。
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
本研究は,異なる微調整方式と組み合わせた場合,様々なシナリオにおいて顕著な性能向上を示すものである。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - Semi-Truths: A Large-Scale Dataset of AI-Augmented Images for Evaluating Robustness of AI-Generated Image detectors [62.63467652611788]
実画像27,600枚、223,400枚、AI拡張画像1,472,700枚を含むSEMI-TRUTHSを紹介する。
それぞれの画像には、検出器のロバスト性の標準化と目標評価のためのメタデータが添付されている。
以上の結果から,現状の検出器は摂動の種類や程度,データ分布,拡張方法に様々な感度を示すことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T01:17:27Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - MAEDiff: Masked Autoencoder-enhanced Diffusion Models for Unsupervised
Anomaly Detection in Brain Images [40.89943932086941]
脳画像における教師なし異常検出のためのMasked Autoencoder-enhanced Diffusion Model (MAEDiff)を提案する。
MAEDiffは、階層的なパッチ分割を含む。上層パッチを重畳して健全なイメージを生成し、サブレベルパッチで動作するマスク付きオートエンコーダに基づくメカニズムを実装し、未通知領域の状態を高める。
論文 参考訳(メタデータ) (2024-01-19T08:54:54Z) - AnoDODE: Anomaly Detection with Diffusion ODE [0.0]
異常検出は、データセットの大部分から著しく逸脱する非定型的なデータサンプルを特定するプロセスである。
医用画像から抽出した特徴量の密度を推定し,拡散モードに基づく新しい異常検出手法を提案する。
提案手法は異常を識別するだけでなく,画像レベルと画素レベルでの解釈性も提供する。
論文 参考訳(メタデータ) (2023-10-10T08:44:47Z) - DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z) - Fast Unsupervised Brain Anomaly Detection and Segmentation with
Diffusion Models [1.6352599467675781]
脳画像における異常検出とセグメント分割のための拡散モデルに基づく手法を提案する。
拡散モデルは,2次元CTおよびMRIデータを用いた一連の実験において,自己回帰的アプローチと比較して競争性能が向上する。
論文 参考訳(メタデータ) (2022-06-07T17:30:43Z) - Diffusion Models for Medical Anomaly Detection [0.8999666725996974]
本稿では,拡散暗黙的モデルに基づく弱教師付き異常検出手法を提案する。
本手法は,複雑な訓練手順を必要とせずに,非常に詳細な異常マップを生成する。
論文 参考訳(メタデータ) (2022-03-08T12:35:07Z) - Implicit field learning for unsupervised anomaly detection in medical
images [0.8122270502556374]
オートデコーダフィードフォワードニューラルネットワークは、組織型のプロキシ上の空間座標と確率の間のマッピングという形で、健康な画像の分布を学習する。
回復画像のモデルにより予測されたボクセル的確率を用いて,異常の局所化を行う。
脳MR画像におけるグリオーマの非教師的局在化の課題に対して,本手法を検証し,他のVAEによる異常検出法と比較した。
論文 参考訳(メタデータ) (2021-06-09T16:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。