論文の概要: MedAugment: Universal Automatic Data Augmentation Plug-in for Medical
Image Analysis
- arxiv url: http://arxiv.org/abs/2306.17466v1
- Date: Fri, 30 Jun 2023 08:22:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 13:14:17.271620
- Title: MedAugment: Universal Automatic Data Augmentation Plug-in for Medical
Image Analysis
- Title(参考訳): MedAugment: 医用画像解析のためのユニバーサル自動データ拡張プラグイン
- Authors: Zhaoshan Liu and Qiujie Lv and Yifan Li and Ziduo Yang and Lei Shen
- Abstract要約: 医用画像解析(MIA)分野に自動DA引数を導入するために,MedAugment というプラグアンドユースDA手法を開発した。
自然画像と医用画像の差を解消するために,拡張空間をピクセル増倍空間と空間増倍空間に分割する。
その結果、我々のMedAugmentは最先端のDAメソッドよりも優れています。
- 参考スコア(独自算出の注目度): 15.729292515732407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data Augmentation (DA) technique has been widely implemented in the computer
vision field to relieve the data shortage, while the DA in Medical Image
Analysis (MIA) is still mostly experience-driven. Here, we develop a
plug-and-use DA method, named MedAugment, to introduce the automatic DA
argumentation to the MIA field. To settle the difference between natural images
and medical images, we divide the augmentation space into pixel augmentation
space and spatial augmentation space. A novel operation sampling strategy is
also proposed when sampling DA operations from the spaces. To demonstrate the
performance and universality of MedAugment, we implement extensive experiments
on four classification datasets and three segmentation datasets. The results
show that our MedAugment outperforms most state-of-the-art DA methods. This
work shows that the plug-and-use MedAugment may benefit the MIA community. Code
is available at https://github.com/NUS-Tim/MedAugment_Pytorch.
- Abstract(参考訳): データ拡張(DA)技術はコンピュータビジョン分野においてデータ不足を軽減するために広く実装されているが、医療画像分析(MIA)のDAはいまだに経験駆動である。
そこで我々は,MedAugment というプラグアンドユースDA手法を開発し,MIA フィールドに自動DA引数を導入する。
自然画像と医用画像の差を解消するために,拡張空間をピクセル増倍空間と空間増倍空間に分割する。
空間からDA操作をサンプリングする際にも,新しい動作サンプリング戦略が提案されている。
メダグメントの性能と普遍性を示すために,4つの分類データセットと3つのセグメンテーションデータセットについて広範な実験を行った。
その結果,我々のMedAugmentは最先端のDA手法よりも優れていた。
この研究は、プラグアンドユースMedAugmentがMIAコミュニティに利益をもたらすことを示している。
コードはhttps://github.com/NUS-Tim/MedAugment_Pytorchで入手できる。
関連論文リスト
- MEDDAP: Medical Dataset Enhancement via Diversified Augmentation Pipeline [1.4910709350090976]
我々はMEDDAPと呼ばれる新しいパイプラインを導入し、新しい情報付きラベル付きサンプルを自動生成することで、既存の小さなデータセットを拡張する。
USLoRAはSD内の重量を選択的に微調整することができ、SDのUNet部分のみを完全微調整するのに対し、パラメータは0.1%未満である。
このアプローチは、乳がんに関する臨床医の意思決定プロセスに触発され、腫瘍の形状が強度よりも重要な役割を担っていることが多い。
論文 参考訳(メタデータ) (2024-03-25T00:17:43Z) - End-to-end autoencoding architecture for the simultaneous generation of
medical images and corresponding segmentation masks [3.1133049660590615]
ハミルトン変分オートエンコーダ(HVAE)に基づくエンドツーエンドアーキテクチャを提案する。
従来の変分オートエンコーダ(VAE)と比較して後部分布近似が向上する。
本手法は, 生成的逆境条件より優れ, 画像品質の向上を示す。
論文 参考訳(メタデータ) (2023-11-17T11:56:53Z) - EMIT-Diff: Enhancing Medical Image Segmentation via Text-Guided
Diffusion Model [4.057796755073023]
EMIT-Diffと呼ばれる医用画像合成のための制御可能な拡散モデルを開発した。
近年の拡散確率モデルを利用して、現実的で多様な合成医用画像データを生成する。
提案手法では, 合成試料が医療上の制約に適合することを確実にする。
論文 参考訳(メタデータ) (2023-10-19T16:18:02Z) - ArSDM: Colonoscopy Images Synthesis with Adaptive Refinement Semantic
Diffusion Models [69.9178140563928]
大腸内視鏡検査は臨床診断や治療に不可欠である。
注釈付きデータの不足は、既存の手法の有効性と一般化を制限する。
本稿では, 下流作業に有用な大腸内視鏡画像を生成するために, 適応Refinement Semantic Diffusion Model (ArSDM)を提案する。
論文 参考訳(メタデータ) (2023-09-03T07:55:46Z) - Data Augmentation-Based Unsupervised Domain Adaptation In Medical
Imaging [0.709016563801433]
脳MRI領域分割における堅牢な領域適応のための教師なし手法を提案する。
その結果,提案手法は高い精度を実現し,幅広い適用性を示し,各種タスクにおけるドメインシフトに対する顕著な堅牢性を示した。
論文 参考訳(メタデータ) (2023-08-08T17:00:11Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - MedSegDiff-V2: Diffusion based Medical Image Segmentation with
Transformer [53.575573940055335]
我々は、MedSegDiff-V2と呼ばれるトランスフォーマーベースの拡散フレームワークを提案する。
画像の異なる20種類の画像分割作業において,その有効性を検証する。
論文 参考訳(メタデータ) (2023-01-19T03:42:36Z) - PrepNet: A Convolutional Auto-Encoder to Homogenize CT Scans for
Cross-Dataset Medical Image Analysis [0.22485007639406518]
新型コロナウイルスの診断はPCR検査で効率的に行えるようになったが、このユースケースは、データの多様性を克服する方法論の必要性を実証するものだ。
本稿では,CTスキャンに最小限の変更を同時に導入しながら,イメージング技術によって引き起こされる差を解消することを目的とした,新しい生成手法を提案する。
論文 参考訳(メタデータ) (2022-08-19T15:49:47Z) - AlignTransformer: Hierarchical Alignment of Visual Regions and Disease
Tags for Medical Report Generation [50.21065317817769]
本稿では,Align Hierarchical Attention (AHA)とMulti-Grained Transformer (MGT)モジュールを含むAlign Transformerフレームワークを提案する。
パブリックなIU-XrayとMIMIC-CXRデータセットの実験は、AlignTransformerが2つのデータセットの最先端メソッドと競合する結果が得られることを示している。
論文 参考訳(メタデータ) (2022-03-18T13:43:53Z) - FedMed-ATL: Misaligned Unpaired Brain Image Synthesis via Affine
Transform Loss [58.58979566599889]
脳画像合成のための新しい自己教師型学習(FedMed)を提案する。
アフィン変換損失(ATL)は、プライバシー法に違反することなく、ひどく歪んだ画像を使用するように定式化された。
提案手法は, 極めて不整合かつ不整合なデータ設定下での合成結果の品質の両方において, 高度な性能を示す。
論文 参考訳(メタデータ) (2022-01-29T13:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。