論文の概要: RadEdit: stress-testing biomedical vision models via diffusion image editing
- arxiv url: http://arxiv.org/abs/2312.12865v3
- Date: Wed, 3 Apr 2024 14:39:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 22:27:34.532785
- Title: RadEdit: stress-testing biomedical vision models via diffusion image editing
- Title(参考訳): RadEdit:拡散画像編集によるストレステストバイオメディカルビジョンモデル
- Authors: Fernando Pérez-García, Sam Bond-Taylor, Pedro P. Sanchez, Boris van Breugel, Daniel C. Castro, Harshita Sharma, Valentina Salvatelli, Maria T. A. Wetscherek, Hannah Richardson, Matthew P. Lungren, Aditya Nori, Javier Alvarez-Valle, Ozan Oktay, Maximilian Ilse,
- Abstract要約: 本研究は、生成画像編集を用いて、バイオメディカルビジョンモデルのデータセットシフトをシミュレートし、障害モードを診断することを提案する。
既存の編集手法は、疾患や治療介入の共起によって学習された、望ましくない変化をもたらす可能性がある。
そこで我々は,複数のマスクを用いた新しい編集手法RadEditを導入し,変更を制約し,編集画像の一貫性を確保する。
- 参考スコア(独自算出の注目度): 45.43408333243842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Biomedical imaging datasets are often small and biased, meaning that real-world performance of predictive models can be substantially lower than expected from internal testing. This work proposes using generative image editing to simulate dataset shifts and diagnose failure modes of biomedical vision models; this can be used in advance of deployment to assess readiness, potentially reducing cost and patient harm. Existing editing methods can produce undesirable changes, with spurious correlations learned due to the co-occurrence of disease and treatment interventions, limiting practical applicability. To address this, we train a text-to-image diffusion model on multiple chest X-ray datasets and introduce a new editing method RadEdit that uses multiple masks, if present, to constrain changes and ensure consistency in the edited images. We consider three types of dataset shifts: acquisition shift, manifestation shift, and population shift, and demonstrate that our approach can diagnose failures and quantify model robustness without additional data collection, complementing more qualitative tools for explainable AI.
- Abstract(参考訳): バイオメディカルイメージングデータセットは、しばしば小さく偏りがあるため、予測モデルの実際の性能は、内部テストで予想されるよりもかなり低い。
本研究は、生成画像編集を用いて、バイオメディカルビジョンモデルのデータセットシフトをシミュレートし、障害モードを診断することを提案する。
既存の編集手法は望ましくない変化を生じさせ、病気や治療介入の共起によって学習された急激な相関により、実用性を制限することができる。
そこで我々は,複数の胸部X線データセット上でテキスト・画像拡散モデルを訓練し,複数のマスクを用いた新しい編集手法RadEditを導入する。
我々は、取得シフト、マニフェストシフト、人口シフトの3つのタイプのデータセットシフトを検討し、我々のアプローチが障害を診断し、追加のデータ収集なしでモデルの堅牢性を定量化し、説明可能なAIのためのより質的なツールを補完することを示した。
関連論文リスト
- MedEdit: Counterfactual Diffusion-based Image Editing on Brain MRI [2.4557713325522914]
医用画像編集のための条件拡散モデルであるMedEditを提案する。
MedEditは、疾患効果のモデリングとオリジナルのスキャンの完全性を維持するバランスを保ちながら、特定の領域の病理を誘導する。
本研究は, 現実的, 臨床的に有用な画像編集ツールの開発をさらに進めるために, 対物画像編集研究を可能にすると信じている。
論文 参考訳(メタデータ) (2024-07-21T21:19:09Z) - Deformation-Recovery Diffusion Model (DRDM): Instance Deformation for Image Manipulation and Synthesis [13.629617915974531]
変形-回復拡散モデル (DRDM) は, 変形拡散と回復に基づく拡散モデルである。
DRDMは、不合理な変形成分の回復を学ぶために訓練され、ランダムに変形した各画像を現実的な分布に復元する。
心MRIおよび肺CTによる実験結果から,DRDMは多種多様(10%以上の画像サイズ変形スケール)の変形を生じさせることが示された。
論文 参考訳(メタデータ) (2024-07-10T01:26:48Z) - Diffusion Models for Counterfactual Generation and Anomaly Detection in Brain Images [39.94162291765236]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - Probabilistic Modeling of Inter- and Intra-observer Variability in
Medical Image Segmentation [12.594098548008832]
我々は、確率的オブザーバとiNtraオブザーバ変異NetwOrk(ピオノ)と呼ばれる新しいモデルを提案する。
各レーダのラベル付け動作を多次元確率分布で捉え、確率的セグメンテーション予測を生成する。
実世界のがんセグメンテーションデータセットの実験は、ピオノの精度と効率を実証している。
論文 参考訳(メタデータ) (2023-07-21T07:29:38Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - PrepNet: A Convolutional Auto-Encoder to Homogenize CT Scans for
Cross-Dataset Medical Image Analysis [0.22485007639406518]
新型コロナウイルスの診断はPCR検査で効率的に行えるようになったが、このユースケースは、データの多様性を克服する方法論の必要性を実証するものだ。
本稿では,CTスキャンに最小限の変更を同時に導入しながら,イメージング技術によって引き起こされる差を解消することを目的とした,新しい生成手法を提案する。
論文 参考訳(メタデータ) (2022-08-19T15:49:47Z) - Variational Topic Inference for Chest X-Ray Report Generation [102.04931207504173]
医療画像のレポート生成は、作業負荷を減らし、臨床実習における診断を支援することを約束する。
近年の研究では、ディープラーニングモデルが自然画像のキャプションに成功していることが示された。
本稿では,自動レポート生成のための変分トピック推論を提案する。
論文 参考訳(メタデータ) (2021-07-15T13:34:38Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。