論文の概要: RadEdit: stress-testing biomedical vision models via diffusion image
editing
- arxiv url: http://arxiv.org/abs/2312.12865v1
- Date: Wed, 20 Dec 2023 09:27:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 16:15:44.127740
- Title: RadEdit: stress-testing biomedical vision models via diffusion image
editing
- Title(参考訳): RadEdit:拡散画像編集によるストレステストバイオメディカルビジョンモデル
- Authors: Fernando P\'erez-Garc\'ia and Sam Bond-Taylor and Pedro P. Sanchez and
Boris van Breugel and Daniel C. Castro and Harshita Sharma and Valentina
Salvatelli and Maria T. A. Wetscherek and Hannah Richardson and Matthew P.
Lungren and Aditya Nori and Javier Alvarez-Valle and Ozan Oktay and
Maximilian Ilse
- Abstract要約: 本研究は、生成画像編集を用いて、バイオメディカルビジョンモデルのデータセットシフトをシミュレートし、障害モードを診断することを提案する。
既存の編集手法は、疾患や治療介入の共起によって学習された、望ましくない変化をもたらす可能性がある。
そこで我々は,複数のマスクを用いた新しい編集手法RadEditを導入し,変更を制約し,編集画像の一貫性を確保する。
- 参考スコア(独自算出の注目度): 46.56142753881835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Biomedical imaging datasets are often small and biased, meaning that
real-world performance of predictive models can be substantially lower than
expected from internal testing. This work proposes using generative image
editing to simulate dataset shifts and diagnose failure modes of biomedical
vision models; this can be used in advance of deployment to assess readiness,
potentially reducing cost and patient harm. Existing editing methods can
produce undesirable changes, with spurious correlations learned due to the
co-occurrence of disease and treatment interventions, limiting practical
applicability. To address this, we train a text-to-image diffusion model on
multiple chest X-ray datasets and introduce a new editing method RadEdit that
uses multiple masks, if present, to constrain changes and ensure consistency in
the edited images. We consider three types of dataset shifts: acquisition
shift, manifestation shift, and population shift, and demonstrate that our
approach can diagnose failures and quantify model robustness without additional
data collection, complementing more qualitative tools for explainable AI.
- Abstract(参考訳): バイオメディカルイメージングデータセットは、しばしば小さく偏りがあり、予測モデルの現実世界のパフォーマンスは、内部テストの期待よりもかなり低い可能性がある。
本研究は,データセットシフトをシミュレートし,生体視覚モデルの障害モードを診断するための生成画像編集手法を提案する。
既存の編集手法は望ましくない変化を生じさせ、病気や治療介入の共起によって学習された素早い相関は、実用性を制限する。
これに対処するために,複数の胸部x線データセット上でテキストから画像への拡散モデルを訓練し,複数のマスクを用いた新たな編集方法radeditを導入することで,変更を制約し,編集画像の一貫性を確保する。
我々は、獲得シフト、表出シフト、人口シフトの3つのタイプのデータセットシフトを検討し、我々のアプローチが、追加のデータ収集なしに障害を診断し、モデルの堅牢性を定量化し、説明可能なaiのためのより質的なツールを補完できることを実証する。
関連論文リスト
- MedEdit: Counterfactual Diffusion-based Image Editing on Brain MRI [2.4557713325522914]
医用画像編集のための条件拡散モデルであるMedEditを提案する。
MedEditは、疾患効果のモデリングとオリジナルのスキャンの完全性を維持するバランスを保ちながら、特定の領域の病理を誘導する。
本研究は, 現実的, 臨床的に有用な画像編集ツールの開発をさらに進めるために, 対物画像編集研究を可能にすると信じている。
論文 参考訳(メタデータ) (2024-07-21T21:19:09Z) - Deformation-Recovery Diffusion Model (DRDM): Instance Deformation for Image Manipulation and Synthesis [13.629617915974531]
変形-回復拡散モデル (DRDM) は, 変形拡散と回復に基づく拡散モデルである。
DRDMは、不合理な変形成分の回復を学ぶために訓練され、ランダムに変形した各画像を現実的な分布に復元する。
心MRIおよび肺CTによる実験結果から,DRDMは多種多様(10%以上の画像サイズ変形スケール)の変形を生じさせることが示された。
論文 参考訳(メタデータ) (2024-07-10T01:26:48Z) - Diffusion Models for Counterfactual Generation and Anomaly Detection in Brain Images [39.94162291765236]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - Probabilistic Modeling of Inter- and Intra-observer Variability in
Medical Image Segmentation [12.594098548008832]
我々は、確率的オブザーバとiNtraオブザーバ変異NetwOrk(ピオノ)と呼ばれる新しいモデルを提案する。
各レーダのラベル付け動作を多次元確率分布で捉え、確率的セグメンテーション予測を生成する。
実世界のがんセグメンテーションデータセットの実験は、ピオノの精度と効率を実証している。
論文 参考訳(メタデータ) (2023-07-21T07:29:38Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - PrepNet: A Convolutional Auto-Encoder to Homogenize CT Scans for
Cross-Dataset Medical Image Analysis [0.22485007639406518]
新型コロナウイルスの診断はPCR検査で効率的に行えるようになったが、このユースケースは、データの多様性を克服する方法論の必要性を実証するものだ。
本稿では,CTスキャンに最小限の変更を同時に導入しながら,イメージング技術によって引き起こされる差を解消することを目的とした,新しい生成手法を提案する。
論文 参考訳(メタデータ) (2022-08-19T15:49:47Z) - Variational Topic Inference for Chest X-Ray Report Generation [102.04931207504173]
医療画像のレポート生成は、作業負荷を減らし、臨床実習における診断を支援することを約束する。
近年の研究では、ディープラーニングモデルが自然画像のキャプションに成功していることが示された。
本稿では,自動レポート生成のための変分トピック推論を提案する。
論文 参考訳(メタデータ) (2021-07-15T13:34:38Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。