論文の概要: Synthesizing brain tumor images and annotations by combining progressive
growing GAN and SPADE
- arxiv url: http://arxiv.org/abs/2009.05946v1
- Date: Sun, 13 Sep 2020 07:56:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 03:08:11.344902
- Title: Synthesizing brain tumor images and annotations by combining progressive
growing GAN and SPADE
- Title(参考訳): 進行成長ganとspadeを組み合わせた脳腫瘍画像とアノテーションの合成
- Authors: Mehdi Foroozandeh, Anders Eklund
- Abstract要約: 現実的な脳腫瘍画像の合成には、ノイズ・ツー・イメージGANとイメージ・ツー・イメージGANを用いることができる。
以上の結果から, 2つのGANは, リアルに見えるラベル画像とMR画像の合成が可能であり, 合成画像の追加によりセグメンテーション性能が向上することが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training segmentation networks requires large annotated datasets, but manual
annotation is time consuming and costly. We here investigate if the combination
of a noise-to-image GAN and an image-to-image GAN can be used to synthesize
realistic brain tumor images as well as the corresponding tumor annotations
(labels), to substantially increase the number of training images. The
noise-to-image GAN is used to synthesize new label images, while the
image-to-image GAN generates the corresponding MR image from the label image.
Our results indicate that the two GANs can synthesize label images and MR
images that look realistic, and that adding synthetic images improves the
segmentation performance, although the effect is small.
- Abstract(参考訳): セグメンテーションネットワークのトレーニングには大きな注釈付きデータセットが必要ですが、手動アノテーションは時間がかかり、コストがかかります。
本稿では,実写脳腫瘍画像とそれに対応する腫瘍アノテーション(ラベル)の合成にノイズ・ツー・イメージGANと画像・イメージGANを組み合わせることで,トレーニング画像の数を大幅に増加させることができるかを検討する。
雑音対画像ganは新しいラベル画像の合成に使用され、画像対画像ganはラベル画像から対応するmr画像を生成する。
以上の結果から, ラベル画像とmr画像の合成が可能であり, 合成画像の追加によりセグメンテーション性能が向上することが示唆されたが, 効果は小さい。
関連論文リスト
- Two-Stage Approach for Brain MR Image Synthesis: 2D Image Synthesis and 3D Refinement [1.5683566370372715]
腫瘍像を正確に表現することで,欠失モードの特異な特徴を反映したMRI画像の合成が重要である。
本稿では,2次元スライスからMR画像を合成する2段階の手法を提案する。
論文 参考訳(メタデータ) (2024-10-14T08:21:08Z) - Learning Vision from Models Rivals Learning Vision from Data [54.43596959598465]
合成画像と合成キャプションのみから視覚表現を学習するための新しいアプローチであるSynCLRを紹介する。
LLMを用いて画像キャプションの大規模なデータセットを合成し,既製のテキスト・ツー・イメージモデルを用いて合成キャプションに対応する複数の画像を生成する。
比較学習によって合成画像の視覚的表現学習を行い、同じ字幕を共有するイメージを正のペアとして扱う。
論文 参考訳(メタデータ) (2023-12-28T18:59:55Z) - Less is More: Unsupervised Mask-guided Annotated CT Image Synthesis with
Minimum Manual Segmentations [2.1785903900600316]
医用画像合成のための新しい手法,すなわちunsupervised Mask (UM)-guided synthesisを提案する。
UM誘導合成は、忠実度、多様性、有用性が著しく高い高品質な合成画像を提供する。
論文 参考訳(メタデータ) (2023-03-19T20:30:35Z) - GH-Feat: Learning Versatile Generative Hierarchical Features from GANs [61.208757845344074]
画像合成から学習した生成機能は、幅広いコンピュータビジョンタスクを解く上で大きな可能性を秘めていることを示す。
まず,事前学習したStyleGANジェネレータを学習損失関数として考慮し,エンコーダを訓練する。
GH-Feat(Generative Hierarchical Features)と呼ばれるエンコーダが生成する視覚的特徴は、階層的なGAN表現と高度に一致している。
論文 参考訳(メタデータ) (2023-01-12T21:59:46Z) - Reducing Annotating Load: Active Learning with Synthetic Images in
Surgical Instrument Segmentation [11.705954708866079]
ロボット支援手術の内視鏡視における計測器のセグメンテーションは,装置の反射や組織との頻繁な接触により困難である。
ディープニューラルネットワーク(DNN)は競争力があり、近年は好まれている。
この作業量を緩和することで、ラベル付き実画像の使用を減らし、汎用的な埋め込み可能な手法を提案する。
論文 参考訳(メタデータ) (2021-08-07T22:30:53Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - You Only Need Adversarial Supervision for Semantic Image Synthesis [84.83711654797342]
我々は,高品質な結果を得るためには敵対的監督のみを必要とする,新しい簡易ganモデルを提案する。
本モデルによって合成された画像はより多様であり,実画像の色やテクスチャに密接に従っている。
論文 参考訳(メタデータ) (2020-12-08T23:00:48Z) - Generative Hierarchical Features from Synthesizing Images [65.66756821069124]
画像合成の学習は、広範囲のアプリケーションにまたがって一般化可能な顕著な階層的な視覚的特徴をもたらす可能性があることを示す。
生成的階層的特徴(Generative Hierarchical Feature, GH-Feat)と呼ばれるエンコーダが生成する視覚的特徴は、生成的タスクと識別的タスクの両方に強い伝達性を有する。
論文 参考訳(メタデータ) (2020-07-20T18:04:14Z) - SynthMorph: learning contrast-invariant registration without acquired
images [8.0963891430422]
画像データを取得せずに画像登録を学習するための戦略を導入する。
この戦略は任意のMRIコントラストの堅牢かつ正確な登録を可能にする。
論文 参考訳(メタデータ) (2020-04-21T20:29:39Z) - Generative Synthetic Augmentation using Label-to-Image Translation for
Nuclei Image Segmentation [0.0]
本稿では,エッジ構造を持つセマンティックラベルから実画像へマッピングする,ラベルから画像への変換を用いた合成拡張を提案する。
提案手法により,提案手法の精度が向上したことを計算および報告する。
論文 参考訳(メタデータ) (2020-04-21T16:10:11Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。