論文の概要: Towards Arbitrary-Scale Histopathology Image Super-resolution: An
Efficient Dual-branch Framework via Implicit Self-texture Enhancement
- arxiv url: http://arxiv.org/abs/2401.15613v1
- Date: Sun, 28 Jan 2024 10:00:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 17:28:09.386701
- Title: Towards Arbitrary-Scale Histopathology Image Super-resolution: An
Efficient Dual-branch Framework via Implicit Self-texture Enhancement
- Title(参考訳): 任意スケールの病理画像スーパーレゾリューションに向けて: インシシト自己テクスチャ強化による効率的なデュアルブランチフレームワーク
- Authors: Minghong Duan, Linhao Qu, Zhiwei Yang, Manning Wang, Chenxi Zhang,
Zhijian Song
- Abstract要約: Inlicit Self-Texture Enhancement-based dual-branch framework (ISTE) を提案する。
ISTEには、まずピクセルの特徴とテクスチャの特徴を学習するテクスチャ学習ブランチと、画素学習ブランチが含まれている。
我々はISTEが既存の固定スケールおよび任意のスケールのアルゴリズムを複数の倍率で上回ることを示す。
- 参考スコア(独自算出の注目度): 20.007115812302924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-quality whole-slide scanners are expensive, complex, and time-consuming,
thus limiting the acquisition and utilization of high-resolution pathology
whole-slide images in daily clinical work. Deep learning-based single-image
super-resolution techniques are an effective way to solve this problem by
synthesizing high-resolution images from low-resolution ones. However, the
existing super-resolution models applied in pathology images can only work in
fixed integer magnifications, significantly decreasing their applicability.
Though methods based on implicit neural representation have shown promising
results in arbitrary-scale super-resolution of natural images, applying them
directly to pathology images is inadequate because they have unique
fine-grained image textures different from natural images. Thus, we propose an
Implicit Self-Texture Enhancement-based dual-branch framework (ISTE) for
arbitrary-scale super-resolution of pathology images to address this challenge.
ISTE contains a pixel learning branch and a texture learning branch, which
first learn pixel features and texture features, respectively. Then, we design
a two-stage texture enhancement strategy to fuse the features from the two
branches to obtain the super-resolution results, where the first stage is
feature-based texture enhancement, and the second stage is spatial-domain-based
texture enhancement. Extensive experiments on three public datasets show that
ISTE outperforms existing fixed-scale and arbitrary-scale algorithms at
multiple magnifications and helps to improve downstream task performance. To
the best of our knowledge, this is the first work to achieve arbitrary-scale
super-resolution in pathology images. Codes will be available.
- Abstract(参考訳): 高品質な全スライディングスキャナーは高価で複雑で時間を要するため、日常臨床における高解像度の病理画像の取得と利用が制限される。
低解像度画像から高解像度画像を合成することにより、ディープラーニングに基づく単一画像の超解像技術はこの問題を効果的に解決する。
しかし、病理画像に適用された既存の超解像モデルは、固定整数倍率でしか機能せず、適用性が著しく低下する。
暗黙的神経表現に基づく手法は自然画像の任意のスケールの超解像において有望な結果を示しているが、病理画像に直接それを適用することは、自然画像と異なる特異な細粒度の画像テクスチャを持つため不十分である。
そこで本研究では,病理画像の任意の大規模超解像のための暗黙的自己テキスト強調型デュアルブランチフレームワーク (iste) を提案する。
isteには、まずピクセルの特徴とテクスチャ機能を学習する、pixel learningブランチとテクスチャ学習ブランチが含まれている。
次に,2つの分枝から特徴を融合させて超解像結果を得る2段階のテクスチャ強化戦略をデザインし,第1段階が特徴ベーステクスチャ強化,第2段階が空間ドメインベースのテクスチャ強化を行う。
3つの公開データセットに対する大規模な実験によると、ISTEは既存の固定スケールおよび任意のスケールのアルゴリズムを複数の倍率で上回り、下流タスクのパフォーマンスを向上させる。
我々の知る限りでは、病理画像において任意のスケールの超解像を実現する最初の試みである。
コードは利用可能だ。
関連論文リスト
- ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - Towards Arbitrary-scale Histopathology Image Super-resolution: An
Efficient Dual-branch Framework based on Implicit Self-texture Enhancement [6.374541716921289]
病理画像の超解像モデルは、固定された整数倍率でのみ機能し、限られた性能を持つ。
病理画像の任意のスケール超解像のための効率的な自己テクスチャ拡張機構を備えたデュアルブランチフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-09T13:38:18Z) - Sketch guided and progressive growing GAN for realistic and editable
ultrasound image synthesis [12.32829386817706]
本稿では,GANに基づく画像合成フレームワークを提案する。
我々は,高解像度でカスタマイズされたテクスチャ編集機能により,現実的なBモードUS画像を合成できる最初の作品を紹介する。
さらに、生成画像と実画像の高レベル特徴の差を最小限に抑えるために、特徴損失を提案する。
論文 参考訳(メタデータ) (2022-04-14T12:50:18Z) - Spatially-Adaptive Image Restoration using Distortion-Guided Networks [51.89245800461537]
空間的に変化する劣化に苦しむ画像の復元のための学習ベースソリューションを提案する。
本研究では、歪み局所化情報を活用し、画像中の困難な領域に動的に適応するネットワーク設計であるSPAIRを提案する。
論文 参考訳(メタデータ) (2021-08-19T11:02:25Z) - InfinityGAN: Towards Infinite-Resolution Image Synthesis [92.40782797030977]
任意の解像度画像を生成するinfinityganを提案する。
少ない計算資源でパッチバイパッチをシームレスに訓練し、推論する方法を示す。
論文 参考訳(メタデータ) (2021-04-08T17:59:30Z) - Aggregated Contextual Transformations for High-Resolution Image
Inpainting [57.241749273816374]
画像の高精細化のための拡張GANモデルAggregated Contextual-Transformation GAN (AOT-GAN)を提案する。
そこで,提案するAOTブロックの複数のレイヤを積み重ねることで,AOT-GANのジェネレータを構築する。
テクスチャ合成を改善するため,AOT-GANの識別をマスク予測タスクでトレーニングすることで強化する。
論文 参考訳(メタデータ) (2021-04-03T15:50:17Z) - Exploiting Raw Images for Real-Scene Super-Resolution [105.18021110372133]
本稿では,合成データと実撮影画像とのギャップを埋めるために,実シーンにおける単一画像の超解像化の問題について検討する。
本稿では,デジタルカメラの撮像過程を模倣して,よりリアルなトレーニングデータを生成する手法を提案する。
また、原画像に記録された放射情報を活用するために、2分岐畳み込みニューラルネットワークを開発した。
論文 参考訳(メタデータ) (2021-02-02T16:10:15Z) - Efficient texture-aware multi-GAN for image inpainting [5.33024001730262]
近年のGAN (Generative Adversarial Network) のインペイント手法は顕著に改善されている。
本稿では,性能とレンダリング効率の両方を改善するマルチGANアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-09-30T14:58:03Z) - Gated Fusion Network for Degraded Image Super Resolution [78.67168802945069]
本稿では,基本特徴と回復特徴を別々に抽出する二分岐畳み込みニューラルネットワークを提案する。
特徴抽出ステップを2つのタスク非依存ストリームに分解することで、デュアルブランチモデルがトレーニングプロセスを容易にすることができる。
論文 参考訳(メタデータ) (2020-03-02T13:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。