論文の概要: Generative Adversarial U-Net for Domain-free Medical Image Augmentation
- arxiv url: http://arxiv.org/abs/2101.04793v1
- Date: Tue, 12 Jan 2021 23:02:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 01:36:13.707864
- Title: Generative Adversarial U-Net for Domain-free Medical Image Augmentation
- Title(参考訳): ドメインフリーな医用画像拡張のための生成逆U-Net
- Authors: Xiaocong Chen and Yun Li and Lina Yao and Ehsan Adeli and Yu Zhang
- Abstract要約: 注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
- 参考スコア(独自算出の注目度): 49.72048151146307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The shortage of annotated medical images is one of the biggest challenges in
the field of medical image computing. Without a sufficient number of training
samples, deep learning based models are very likely to suffer from over-fitting
problem. The common solution is image manipulation such as image rotation,
cropping, or resizing. Those methods can help relieve the over-fitting problem
as more training samples are introduced. However, they do not really introduce
new images with additional information and may lead to data leakage as the test
set may contain similar samples which appear in the training set. To address
this challenge, we propose to generate diverse images with generative
adversarial network. In this paper, we develop a novel generative method named
generative adversarial U-Net , which utilizes both generative adversarial
network and U-Net. Different from existing approaches, our newly designed model
is domain-free and generalizable to various medical images. Extensive
experiments are conducted over eight diverse datasets including computed
tomography (CT) scan, pathology, X-ray, etc. The visualization and quantitative
results demonstrate the efficacy and good generalization of the proposed method
on generating a wide array of high-quality medical images.
- Abstract(参考訳): 注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
十分な数のトレーニングサンプルがなければ、ディープラーニングベースのモデルは過剰フィッティングの問題に苦しむ可能性が高い。
一般的な解決策は、画像回転、トリミング、リサイズなどの画像操作である。
これらの方法は、より多くのトレーニングサンプルが導入されるにつれて、過度に適合する問題を緩和するのに役立ちます。
しかし、追加情報を持つ新しい画像を導入することはなく、テストセットがトレーニングセットに現れる類似のサンプルを含む可能性があるため、データ漏洩につながる可能性がある。
この課題に対処するために,生成型逆ネットワークを用いた多様な画像を生成することを提案する。
本稿では, 生成逆ネットワークとU-Netの両方を利用する, 生成逆ネットワークと呼ばれる新しい生成手法を開発する。
既存のアプローチとは異なり、新しく設計されたモデルはドメインフリーで、様々な医療画像に一般化できる。
コンピュータ断層撮影(CT)スキャン,病理学,X線など,8つの多様なデータセットに対して大規模な実験を行った。
可視化と定量化により,提案手法の有効性を実証し,高画質な医用画像の生成に有効であることを示す。
関連論文リスト
- SurgicaL-CD: Generating Surgical Images via Unpaired Image Translation with Latent Consistency Diffusion Models [1.6189876649941652]
現実的な手術画像を生成するために, 連続拡散法であるemphSurgicaL-CDを導入する。
以上の結果から,本手法はGANや拡散に基づく手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-08-19T09:19:25Z) - Interactive Image Selection and Training for Brain Tumor Segmentation Network [42.62139206176152]
画像マーカー(FLIM)からの特徴学習に基づく画像選択と訓練のための対話的手法を用いる。
その結果,本手法では,U字型ネットワークのエンコーダを訓練するための少数の画像を選択することができ,手動選択に匹敵する性能を得ることができ,また,バックプロパゲーションとトレーニング画像のトレーニングを施した同一のU字型ネットワークを超越することさえできた。
論文 参考訳(メタデータ) (2024-06-05T13:03:06Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z) - Robust Medical Image Classification from Noisy Labeled Data with Global
and Local Representation Guided Co-training [73.60883490436956]
本稿では,ロバストな医用画像分類のためのグローバルおよびローカルな表現学習を用いた新しい協調学習パラダイムを提案する。
ノイズラベルフィルタを用いた自己アンサンブルモデルを用いて、クリーンでノイズの多いサンプルを効率的に選択する。
また,ネットワークを暗黙的に正規化してノイズの多いサンプルを利用するための,グローバルかつ局所的な表現学習手法を設計する。
論文 参考訳(メタデータ) (2022-05-10T07:50:08Z) - Pathology-Aware Generative Adversarial Networks for Medical Image
Augmentation [0.22843885788439805]
GAN(Generative Adversarial Networks)は、現実的だが斬新なサンプルを生成し、実際の画像分布を効果的にカバーする。
この論文は、医師とのコラボレーションにおいて、そのような新しい応用の臨床的意義を提示することを目的とした4つのGANプロジェクトを含んでいる。
論文 参考訳(メタデータ) (2021-06-03T15:08:14Z) - Medical Image Harmonization Using Deep Learning Based Canonical Mapping:
Toward Robust and Generalizable Learning in Imaging [4.396671464565882]
多様な取得条件のデータを共通参照領域に"調和"する新しいパラダイムを提案する。
我々は,MRIによる脳年齢予測と統合失調症の分類という,2つの問題に対して本手法を検証した。
論文 参考訳(メタデータ) (2020-10-11T22:01:37Z) - Multi-label Thoracic Disease Image Classification with Cross-Attention
Networks [65.37531731899837]
胸部X線画像から胸部疾患を自動分類するためのCAN(Cross-Attention Networks)を提案する。
また,クロスエントロピー損失を超える新たな損失関数を設計し,クラス間の不均衡を克服する。
論文 参考訳(メタデータ) (2020-07-21T14:37:00Z) - RADIOGAN: Deep Convolutional Conditional Generative adversarial Network
To Generate PET Images [3.947298454012977]
MIPポジトロン放射トモグラフィー画像(PET)を生成するための深層畳み込み条件生成対向ネットワークを提案する。
提案手法の利点は,1種類の病変に対して,小さな標本サイズで訓練した病変の異なるクラスを生成できるモデルから成り立っている。
また,画像評価ツールとして,潜伏空間を歩行できることを示す。
論文 参考訳(メタデータ) (2020-03-19T10:14:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。