論文の概要: Synthesis and Edition of Ultrasound Images via Sketch Guided Progressive
Growing GANs
- arxiv url: http://arxiv.org/abs/2004.00226v1
- Date: Wed, 1 Apr 2020 04:24:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 19:22:34.516548
- Title: Synthesis and Edition of Ultrasound Images via Sketch Guided Progressive
Growing GANs
- Title(参考訳): sketch guided progressive growing gans による超音波画像の合成と編集
- Authors: Jiamin Liang, Xin Yang, Haoming Li, Yi Wang, Manh The Van, Haoran Dou,
Chaoyu Chen, Jinghui Fang, Xiaowen Liang, Zixin Mai, Guowen Zhu, Zhiyi Chen,
Dong Ni
- Abstract要約: 本稿では,米国における画像合成のための新しい枠組みを考案する。
まず、オブジェクトマスクに背景スケッチを導入するために、生成的対向ネットワーク(Sgan)をスケッチとして採用する。
スケッチの充実によって、Sganは編集可能できめ細かな構造の詳細を持つ、リアルなアメリカの画像を生成することができる。
- 参考スコア(独自算出の注目度): 16.31231328779202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ultrasound (US) is widely accepted in clinic for anatomical structure
inspection. However, lacking in resources to practice US scan, novices often
struggle to learn the operation skills. Also, in the deep learning era,
automated US image analysis is limited by the lack of annotated samples.
Efficiently synthesizing realistic, editable and high resolution US images can
solve the problems. The task is challenging and previous methods can only
partially complete it. In this paper, we devise a new framework for US image
synthesis. Particularly, we firstly adopt a sketch generative adversarial
networks (Sgan) to introduce background sketch upon object mask in a
conditioned generative adversarial network. With enriched sketch cues, Sgan can
generate realistic US images with editable and fine-grained structure details.
Although effective, Sgan is hard to generate high resolution US images. To
achieve this, we further implant the Sgan into a progressive growing scheme
(PGSgan). By smoothly growing both generator and discriminator, PGSgan can
gradually synthesize US images from low to high resolution. By synthesizing
ovary and follicle US images, our extensive perceptual evaluation, user study
and segmentation results prove the promising efficacy and efficiency of the
proposed PGSgan.
- Abstract(参考訳): 超音波(US)は解剖学的構造検査のための臨床で広く受け入れられている。
しかし、米国のスキャンを実践するリソースが不足しているため、初心者はしばしば手術スキルを学ぶのに苦労する。
また、ディープラーニング時代には、注釈付きサンプルの欠如により、自動US画像解析が制限される。
リアル、編集可能、高解像度の画像の効率的な合成は、この問題を解決できる。
タスクは難しく、以前のメソッドは部分的にしか完了できません。
本稿では,米国における画像合成のための新しい枠組みを考案する。
特に,まず,対象マスクに背景スケッチを導入するためのスケッチ生成対向ネットワーク(Sgan)を,条件付き生成対向ネットワークに導入する。
スケッチを豊かにすることで、sganは、編集可能できめ細かい構造の詳細を持つリアルな米国画像を生成することができる。
効果はあるものの、Sganは高解像度のUS画像を生成するのが難しい。
これを実現するために、我々はさらにSganをプログレッシブ成長スキーム(PGSgan)に移植する。
pgsganは、発電機と判別器の両方をスムーズに成長させることで、低解像度から高解像度の画像を徐々に合成することができる。
卵巣と卵胞のUS画像の合成により,広範囲な知覚評価,ユーザスタディ,セグメンテーションの結果から,提案したPGSganの有効性と有効性が確認された。
関連論文リスト
- Diffusion-based generation of Histopathological Whole Slide Images at a
Gigapixel scale [10.481781668319886]
Synthetic Whole Slide Images (WSI)は、多くの計算アプリケーションの性能を高めるためにトレーニングデータセットを増強することができる。
既存のディープラーニングベースの手法は、WSIを通常高い解像度で生成しない。
本稿では,高分解能 WSI の画像生成に取り組むために,新しい粗大なサンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T14:33:39Z) - Generalizable Synthetic Image Detection via Language-guided Contrastive
Learning [22.4158195581231]
偽ニュースの拡散や偽のプロフィールの作成などの合成画像の真偽の使用は、画像の真正性に関する重要な懸念を提起する。
本稿では,言語指導によるコントラスト学習と検出問題の新たな定式化による,シンプルで効果的な合成画像検出手法を提案する。
提案したLanguAge-guided SynThEsis Detection (LASTED) モデルでは,画像生成モデルに対する一般化性が大幅に向上していることが示されている。
論文 参考訳(メタデータ) (2023-05-23T08:13:27Z) - Ultra-NeRF: Neural Radiance Fields for Ultrasound Imaging [40.72047687523214]
超音波(US)イメージングのための物理強調型暗黙神経表現法(INR)を提案する。
提案手法は, レイトレーシングに基づくニューラルレンダリングを新しいビューUS合成に活用する。
論文 参考訳(メタデータ) (2023-01-25T11:02:09Z) - Frido: Feature Pyramid Diffusion for Complex Scene Image Synthesis [77.23998762763078]
画像合成のためのマルチスケール粗大な分極処理を行う特徴ピラミッド拡散モデルであるFridoについて述べる。
提案モデルでは,入力画像をスケール依存ベクトル量子化特徴に分解し,次に粗い粒度ゲーティングを用いて画像出力を生成する。
我々は、テキスト・ツー・イメージ合成、レイアウト・ツー・イメージ、シーン・トゥ・イメージ、ラベル・ツー・イメージなど、様々な無条件・条件の画像生成タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-29T17:37:29Z) - Sketch guided and progressive growing GAN for realistic and editable
ultrasound image synthesis [12.32829386817706]
本稿では,GANに基づく画像合成フレームワークを提案する。
我々は,高解像度でカスタマイズされたテクスチャ編集機能により,現実的なBモードUS画像を合成できる最初の作品を紹介する。
さらに、生成画像と実画像の高レベル特徴の差を最小限に抑えるために、特徴損失を提案する。
論文 参考訳(メタデータ) (2022-04-14T12:50:18Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - A Shared Representation for Photorealistic Driving Simulators [83.5985178314263]
本稿では、識別器アーキテクチャを再考することにより、生成画像の品質を向上させることを提案する。
シーンセグメンテーションマップや人体ポーズといったセマンティックインプットによって画像が生成されるという問題に焦点が当てられている。
我々は,意味的セグメンテーション,コンテンツ再構成,および粗い粒度の逆解析を行うのに十分な情報をエンコードする,共有潜在表現を学習することを目指している。
論文 参考訳(メタデータ) (2021-12-09T18:59:21Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - You Only Need Adversarial Supervision for Semantic Image Synthesis [84.83711654797342]
我々は,高品質な結果を得るためには敵対的監督のみを必要とする,新しい簡易ganモデルを提案する。
本モデルによって合成された画像はより多様であり,実画像の色やテクスチャに密接に従っている。
論文 参考訳(メタデータ) (2020-12-08T23:00:48Z) - Screen Tracking for Clinical Translation of Live Ultrasound Image
Analysis Methods [2.5805793749729857]
提案手法は,ソノグラフィの視点に固定されたカメラで画面を追跡し,撮影画像を適切なアスペクト比に再構成することで,米国内の画像をキャプチャする。
これにより、取得した画像を画像処理パイプラインに入力して、検査を改善するのに役立つ情報を抽出できるという仮説が立てられている。
この情報は、例えば拡張現実(AR)ヘッドセットを使って、音像師の視界にリアルタイムで投影される。
論文 参考訳(メタデータ) (2020-07-13T09:53:20Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。