論文の概要: M3Dsynth: A dataset of medical 3D images with AI-generated local
manipulations
- arxiv url: http://arxiv.org/abs/2309.07973v1
- Date: Thu, 14 Sep 2023 18:16:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 17:07:20.793285
- Title: M3Dsynth: A dataset of medical 3D images with AI-generated local
manipulations
- Title(参考訳): M3Dsynth:AIによる局所的な操作による医療用3D画像のデータセット
- Authors: Giada Zingarini and Davide Cozzolino and Riccardo Corvi and Giovanni
Poggi and Luisa Verdoliva
- Abstract要約: M3DsynthはCT(Computed Tomography)肺画像の大規模なデータセットである。
実際のCTで肺がん結節を注入または除去することにより,操作画像を作成する。
実験の結果、これらの画像は簡単に自動診断ツールを騙すことが判明した。
- 参考スコア(独自算出の注目度): 10.20962191915879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to detect manipulated visual content is becoming increasingly
important in many application fields, given the rapid advances in image
synthesis methods. Of particular concern is the possibility of modifying the
content of medical images, altering the resulting diagnoses. Despite its
relevance, this issue has received limited attention from the research
community. One reason is the lack of large and curated datasets to use for
development and benchmarking purposes. Here, we investigate this issue and
propose M3Dsynth, a large dataset of manipulated Computed Tomography (CT) lung
images. We create manipulated images by injecting or removing lung cancer
nodules in real CT scans, using three different methods based on Generative
Adversarial Networks (GAN) or Diffusion Models (DM), for a total of 8,577
manipulated samples. Experiments show that these images easily fool automated
diagnostic tools. We also tested several state-of-the-art forensic detectors
and demonstrated that, once trained on the proposed dataset, they are able to
accurately detect and localize manipulated synthetic content, including when
training and test sets are not aligned, showing good generalization ability.
Dataset and code will be publicly available at
https://grip-unina.github.io/M3Dsynth/.
- Abstract(参考訳): 画像合成手法の急速な進歩を考えると、操作された視覚コンテンツを検出する能力は、多くのアプリケーション分野でますます重要になっている。
特に懸念されるのは、医療画像の内容を変更する可能性であり、診断結果を変更することである。
その関連性にもかかわらず、この問題は研究コミュニティから限られた注目を集めている。
理由のひとつは、大規模でキュレートされたデータセットが開発やベンチマークのために使われていないことだ。
本稿では,CT(Computed Tomography)肺画像の大規模データセットであるM3Dsynthを提案する。
実際のctスキャンで肺がんの結節を注入または除去し,gan(generative adversarial network)またはdm(distribution model)に基づく3つの異なる方法を用いて8,577個の操作標本を作製した。
実験によると、これらの画像は簡単に自動診断ツールを騙すことができる。
また,いくつかの最先端の法医学的検出器をテストし,提案するデータセット上でトレーニングすると,訓練やテストセットが整っていない場合を含む操作された合成コンテンツを正確に検出し,局所化することができ,良好な一般化能力を示すことを実証した。
データセットとコードはhttps://grip-unina.github.io/M3Dsynth/で公開される。
関連論文リスト
- Generative Enhancement for 3D Medical Images [74.17066529847546]
本稿では,3次元医用画像合成の新しい生成手法であるGEM-3Dを提案する。
本手法は2次元スライスから始まり,3次元スライスマスクを用いて患者に提供するための情報スライスとして機能し,生成過程を伝搬する。
3D医療画像をマスクと患者の事前情報に分解することで、GEM-3Dは多目的な3D画像を生成する柔軟な、かつ効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-03-19T15:57:04Z) - Enhancing Weakly Supervised 3D Medical Image Segmentation through
Probabilistic-aware Learning [52.249748801637196]
3次元医用画像のセグメンテーションは、疾患の診断と治療計画に重要な意味を持つ課題である。
近年の深層学習の進歩は、完全に教師付き医療画像のセグメンテーションを著しく強化している。
本稿では,3次元医用画像に特化して設計された,確率的適応型弱教師付き学習パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-05T00:46:53Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - MedGen3D: A Deep Generative Framework for Paired 3D Image and Mask
Generation [17.373961762646356]
我々は3次元医用画像とマスクをペアで生成できるフレームワークであるMedGen3Dを紹介する。
提案フレームワークは,合成画像とセグメンテーションマップの正確なアライメントを保証する。
論文 参考訳(メタデータ) (2023-04-08T21:43:26Z) - Solving Sample-Level Out-of-Distribution Detection on 3D Medical Images [0.06117371161379209]
アウト・オブ・ディストリビューション(OOD)検出はデータサンプルの識別に役立ち、モデルの信頼性を高める。
近年,2次元医用画像に有望な結果をもたらすDLベースのOOD検出技術が開発されている。
しかし、これらのアプローチのほとんどを3D画像に拡張することは、計算的に難解である。
本稿では,DLを必要としないヒストグラムに基づく手法を提案する。
論文 参考訳(メタデータ) (2022-12-13T11:42:23Z) - 3D-QCNet -- A Pipeline for Automated Artifact Detection in Diffusion MRI
images [0.5735035463793007]
アーティファクトは拡散MRI(Diffusion MRI)スキャンでよく見られる。
アーティファクト検出のためのqcメソッドはいくつか存在するが、手作業による介入や、さまざまなアーティファクトやデータセットを汎用化できないといった問題に苦しんでいる。
3D-Densenetアーキテクチャを使用した自動ディープラーニング(DL)パイプラインを提案し、自動アーティファクト検出のための拡散ボリュームのモデルを訓練する。
論文 参考訳(メタデータ) (2021-03-09T08:21:53Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Planar 3D Transfer Learning for End to End Unimodal MRI Unbalanced Data
Segmentation [0.0]
本稿では,事前学習した2次元畳み込みニューラルネットワーク重みを平面3次元カーネルにマッピングする手法を提案する。
提案手法は2次元VGG-16から転送されるエンコーダを備えた平面3Dres-u-netネットワークにより検証される。
論文 参考訳(メタデータ) (2020-11-23T17:11:50Z) - Fed-Sim: Federated Simulation for Medical Imaging [131.56325440976207]
本稿では、2つの学習可能なニューラルモジュールからなる物理駆動型生成手法を提案する。
データ合成フレームワークは、複数のデータセットの下流セグメンテーション性能を改善する。
論文 参考訳(メタデータ) (2020-09-01T19:17:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。