論文の概要: Remove Appearance Shift for Ultrasound Image Segmentation via Fast and
Universal Style Transfer
- arxiv url: http://arxiv.org/abs/2002.05844v1
- Date: Fri, 14 Feb 2020 02:00:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 05:07:31.658702
- Title: Remove Appearance Shift for Ultrasound Image Segmentation via Fast and
Universal Style Transfer
- Title(参考訳): 高速及びユニバーサル・スタイル転送による超音波画像分割のための残像シフト
- Authors: Zhendong Liu, Xin Yang, Rui Gao, Shengfeng Liu, Haoran Dou, Shuangchi
He, Yuhao Huang, Yankai Huang, Huanjia Luo, Yuanji Zhang, Yi Xiong, Dong Ni
- Abstract要約: 本稿では、出現シフトを除去し、ディープニューラルネットワーク(DNN)の一般化能力を向上する新しい直感的なフレームワークを提案する。
われわれは、米国画像でこれまで検討されなかった外観シフトを取り除くために、普遍的なスタイル移行の精神に従う。
当フレームワークは,臨床用USスキャンに必要なリアルタイムな速度を実現した。
- 参考スコア(独自算出の注目度): 13.355791568003559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) suffer from the performance degradation when
image appearance shift occurs, especially in ultrasound (US) image
segmentation. In this paper, we propose a novel and intuitive framework to
remove the appearance shift, and hence improve the generalization ability of
DNNs. Our work has three highlights. First, we follow the spirit of universal
style transfer to remove appearance shifts, which was not explored before for
US images. Without sacrificing image structure details, it enables the
arbitrary style-content transfer. Second, accelerated with Adaptive Instance
Normalization block, our framework achieved real-time speed required in the
clinical US scanning. Third, an efficient and effective style image selection
strategy is proposed to ensure the target-style US image and testing content US
image properly match each other. Experiments on two large US datasets
demonstrate that our methods are superior to state-of-the-art methods on making
DNNs robust against various appearance shifts.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、特に超音波(US)画像セグメンテーションにおいて、画像の外観変化が発生すると性能劣化に悩まされる。
本稿では,出現シフトを除去し,DNNの一般化能力を向上させるための,新しい直感的なフレームワークを提案する。
私たちの作品には3つのハイライトがある。
まず,米国画像ではこれまで検討されていなかった外観変化を取り除くために,普遍的なスタイル移行の精神に従う。
画像構造の詳細を犠牲にすることなく、任意のスタイルコンテンツ転送を可能にする。
第2に,Adaptive Instance Normalizationブロックを併用して,臨床用USスキャンに必要なリアルタイム速度を実現した。
第3に,ターゲット方式のus画像とus画像が適切に一致していることを保証するため,効率的かつ効果的なスタイル画像選択戦略を提案する。
2つの大きな米国データセットの実験により、DNNを様々な外見変化に対して堅牢にする最先端の手法よりも、我々の手法が優れていることが示された。
関連論文リスト
- D2Styler: Advancing Arbitrary Style Transfer with Discrete Diffusion Methods [2.468658581089448]
D$2$Styler (Discrete Diffusion Styler) と呼ばれる新しいフレームワークを提案する。
本手法では,アダプティブインスタンス正規化(AdaIN)機能を逆拡散過程のコンテキストガイドとして用いる。
実験により、D$2$Stylerは高品質なスタイル変換画像を生成することが示された。
論文 参考訳(メタデータ) (2024-08-07T05:47:06Z) - MoreStyle: Relax Low-frequency Constraint of Fourier-based Image Reconstruction in Generalizable Medical Image Segmentation [53.24011398381715]
MoreStyleと呼ばれるデータ拡張のためのPlug-and-Playモジュールを紹介します。
MoreStyleは、フーリエ空間の低周波制約を緩和することで、イメージスタイルを多様化する。
敵対的学習の助けを借りて、MoreStyleは潜在機能の中で最も複雑なスタイルの組み合わせを指差している。
論文 参考訳(メタデータ) (2024-03-18T11:38:47Z) - Hyper-VolTran: Fast and Generalizable One-Shot Image to 3D Object
Structure via HyperNetworks [53.67497327319569]
画像から3Dまでを1つの視点から解く新しいニューラルレンダリング手法を提案する。
提案手法では, 符号付き距離関数を表面表現として使用し, 幾何エンコードボリュームとハイパーネットワークスによる一般化可能な事前処理を取り入れた。
本実験は,一貫した結果と高速な生成による提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-12-24T08:42:37Z) - Fine-Grained Image Style Transfer with Visual Transformers [59.85619519384446]
本稿では,コンテンツとスタイルイメージの両方を視覚トークンに分割し,よりきめ細かなスタイル変換を実現するSTTR(Style TRansformer)ネットワークを提案する。
STTRと既存のアプローチを比較するために,Amazon Mechanical Turkのユーザスタディを実施している。
論文 参考訳(メタデータ) (2022-10-11T06:26:00Z) - AdaWCT: Adaptive Whitening and Coloring Style Injection [55.554986498301574]
本稿では,AdaWCTを用いた白黒色変換(WCT)を応用したAdaINの一般化について述べる。
本稿では、StarGANv2アーキテクチャの実験を通して、この一般化が概念的には単純ではあるが、生成した画像の品質を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2022-08-01T15:07:51Z) - Saliency Constrained Arbitrary Image Style Transfer using SIFT and DCNN [22.57205921266602]
一般的なニューラルスタイルの転送方法を使用する場合、スタイル画像のテクスチャや色は通常、コンテンツ画像に不完全に転送される。
本稿では,その効果を低減・回避するための新しいサリエンシ制約手法を提案する。
実験により、ソースイメージの正当性マップは正しいマッチングを見つけ出し、アーティファクトを避けるのに役立つことが示された。
論文 参考訳(メタデータ) (2022-01-14T09:00:55Z) - Content-adaptive Representation Learning for Fast Image Super-resolution [6.5468866820512215]
我々は、パッチワイドなローリングネットワークをコンテント順応して画像の難易度に応じて復元することで、画像SRの効率性の問題に対処する。
難易度を無視する既存の研究とは対照的に、ニューラルネットワークの異なる段階を採用して画像復元を行う。
我々のモデルは、重要な加速を示すだけでなく、最先端の性能も維持する。
論文 参考訳(メタデータ) (2021-05-20T10:24:29Z) - Towards Ultra-Resolution Neural Style Transfer via Thumbnail Instance
Normalization [42.84367334160332]
任意の高解像度画像を柔軟に処理するために、非常にシンプルなウルトラリゾリューションスタイル転送フレームワーク「URST」を紹介します。
既存の最先端手法のほとんどは、超高解像度画像を処理する際のメモリコストとストロークサイズが小さいため、不足する。
論文 参考訳(メタデータ) (2021-03-22T12:54:01Z) - Generalize Ultrasound Image Segmentation via Instant and Plug & Play
Style Transfer [65.71330448991166]
ディープセグメンテーションモデルは、外観が不明な画像に一般化する。
モデルの再トレーニングは、高いレイテンシと複雑なパイプラインにつながる。
未知の外観変化下での堅牢なセグメンテーションのための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-11T05:45:30Z) - Style-invariant Cardiac Image Segmentation with Test-time Augmentation [10.234493507401618]
ディープモデルは、実際の臨床環境での外観の変化により、しばしば深刻なパフォーマンス低下に悩まされる。
本稿では,心臓画像分割のための新しいスタイル不変手法を提案する。
論文 参考訳(メタデータ) (2020-09-24T08:27:40Z) - Supervised and Unsupervised Learning of Parameterized Color Enhancement [112.88623543850224]
我々は、教師なし学習と教師なし学習の両方を用いて、画像翻訳タスクとしての色強調の問題に取り組む。
我々は,MIT-Adobe FiveKベンチマークにおいて,教師付き(ペアデータ)と教師なし(ペアデータ)の2つの画像強調手法と比較して,最先端の結果が得られた。
20世紀初頭の写真や暗黒ビデオフレームに応用することで,本手法の一般化能力を示す。
論文 参考訳(メタデータ) (2019-12-30T13:57:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。