論文の概要: HQG-Net: Unpaired Medical Image Enhancement with High-Quality Guidance
- arxiv url: http://arxiv.org/abs/2307.07829v1
- Date: Sat, 15 Jul 2023 15:26:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 17:39:58.471334
- Title: HQG-Net: Unpaired Medical Image Enhancement with High-Quality Guidance
- Title(参考訳): HQG-Net:高画質誘導による医療画像改善
- Authors: Chunming He, Kai Li, Guoxia Xu, Jiangpeng Yan, Longxiang Tang, Yulun
Zhang, Xiu Li and Yaowei Wang
- Abstract要約: Unpaired Medical Image Enhancement (UMIE)は、低品質(LQ)の医用画像から高品質(HQ)の画像に変換することを目的としている。
本稿では, HQ cues を直接 LQ エンハンスメントプロセスに符号化することで, 既存の手法の制限を回避する新しい UMIE 手法を提案する。
我々は、生成したHQイメージがHQドメインに落下することを確実にするために、差別者と反対に拡張ネットワークを訓練する。
- 参考スコア(独自算出の注目度): 45.84780456554191
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unpaired Medical Image Enhancement (UMIE) aims to transform a low-quality
(LQ) medical image into a high-quality (HQ) one without relying on paired
images for training. While most existing approaches are based on
Pix2Pix/CycleGAN and are effective to some extent, they fail to explicitly use
HQ information to guide the enhancement process, which can lead to undesired
artifacts and structural distortions. In this paper, we propose a novel UMIE
approach that avoids the above limitation of existing methods by directly
encoding HQ cues into the LQ enhancement process in a variational fashion and
thus model the UMIE task under the joint distribution between the LQ and HQ
domains. Specifically, we extract features from an HQ image and explicitly
insert the features, which are expected to encode HQ cues, into the enhancement
network to guide the LQ enhancement with the variational normalization module.
We train the enhancement network adversarially with a discriminator to ensure
the generated HQ image falls into the HQ domain. We further propose a
content-aware loss to guide the enhancement process with wavelet-based
pixel-level and multi-encoder-based feature-level constraints. Additionally, as
a key motivation for performing image enhancement is to make the enhanced
images serve better for downstream tasks, we propose a bi-level learning scheme
to optimize the UMIE task and downstream tasks cooperatively, helping generate
HQ images both visually appealing and favorable for downstream tasks.
Experiments on three medical datasets, including two newly collected datasets,
verify that the proposed method outperforms existing techniques in terms of
both enhancement quality and downstream task performance. We will make the code
and the newly collected datasets publicly available for community study.
- Abstract(参考訳): Unpaired Medical Image Enhancement (UMIE)は、低品質(LQ)の医用画像から高品質(HQ)の画像に変換することを目的としている。
既存のアプローチはPix2Pix/CycleGANをベースとしており、ある程度有効であるが、HQ情報を使って拡張プロセスのガイドに失敗し、望ましくないアーティファクトや構造的歪みにつながる可能性がある。
本稿では,従来の手法の制限を回避するための新しいUMIE手法を提案する。これは,HQキューをLQエンハンスメントプロセスに直接変換することで,LQドメインとHQドメインの連立分布下でのUMIEタスクをモデル化する。
具体的には、HQ画像から特徴を抽出し、HQキューをエンコードすると思われる特徴を拡張ネットワークに明示的に挿入し、変分正規化モジュールでLQエンハンスメントを誘導する。
我々は、生成したHQイメージがHQドメインに落下することを確実にするために、差別者と反対に拡張ネットワークを訓練する。
さらに、ウェーブレットベースの画素レベルとマルチエンコーダベースの特徴レベル制約による拡張プロセスのガイドとなるコンテンツ認識損失を提案する。
さらに,画像強調処理の鍵となる動機は,下流タスクに改良されたイメージを役立てることである。我々は,UMIEタスクと下流タスクを協調的に最適化するバイレベル学習手法を提案し,下流タスクに対して視覚的に魅力的かつ好適なHQイメージの生成を支援する。
新たに収集された2つのデータセットを含む3つの医療データセットの実験では、提案手法が既存の手法よりも品質向上とダウンストリームタスク性能の両方において優れていることが確認された。
コードと新たに収集したデータセットをコミュニティスタディとして公開します。
関連論文リスト
- G-Refine: A General Quality Refiner for Text-to-Image Generation [74.16137826891827]
G-Refineは,高画質画像の整合性を損なうことなく,低画質画像の高精細化を図った汎用画像精細機である。
このモデルは、知覚品質指標、アライメント品質指標、一般的な品質向上モジュールの3つの相互接続モジュールで構成されている。
大規模な実験により、G-Refine以降のAIGIは、4つのデータベースで10以上の品質指標でパフォーマンスが向上していることが明らかになった。
論文 参考訳(メタデータ) (2024-04-29T00:54:38Z) - Dual Associated Encoder for Face Restoration [68.49568459672076]
低品質(LQ)画像から顔の詳細を復元するために,DAEFRという新しいデュアルブランチフレームワークを提案する。
提案手法では,LQ入力から重要な情報を抽出する補助的なLQ分岐を導入する。
合成と実世界の両方のデータセットに対するDAEFRの有効性を評価する。
論文 参考訳(メタデータ) (2023-08-14T17:58:33Z) - A Dive into SAM Prior in Image Restoration [40.03648504115027]
画像復元(IR)の目的は、その劣化した低品質(LQ)観測から高品質(HQ)イメージを復元することである。
本稿では,既存のIRネットワークにセマンティックプリエントを組み込む軽量SAMプリエントチューニング(SPT)ユニットを提案する。
我々の手法で唯一訓練可能なモジュールとして、SPTユニットは効率とスケーラビリティの両方を改善する可能性がある。
論文 参考訳(メタデータ) (2023-05-23T02:31:06Z) - Re-IQA: Unsupervised Learning for Image Quality Assessment in the Wild [38.197794061203055]
教師なし環境で高レベルのコンテンツと低レベルの画像品質特徴を学習するために、2つの異なるエンコーダを訓練するためのMixture of Expertsアプローチを提案する。
本稿では,Re-IQAフレームワークから得られた高次・低次画像表現を,線形回帰モデルをトレーニングするために展開する。
本手法は,大規模画像品質評価データベース上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-04-02T05:06:51Z) - GAN Inversion for Image Editing via Unsupervised Domain Adaptation [18.328386420520978]
本稿では,UNDA(Unsupervised Domain Adaptation)のインバージョンプロセス,すなわちUDA-inversionを提案し,HQおよびLQ画像の効果的なインバージョンと編集を行う。
UDA-InversionはFFHQデータセットで22.14のPSNRを実現し、教師付きメソッドと互換性がある。
論文 参考訳(メタデータ) (2022-11-22T09:51:24Z) - Unpaired Image Enhancement with Quality-Attention Generative Adversarial
Network [92.01145655155374]
品質の注意を払わないデータに基づいて訓練された生成敵対ネットワーク(QAGAN)を提案する。
提案されたQAGANの重要な新規性は、ジェネレータの注入されたQAMにある。
提案手法は客観的評価と主観評価の両方において良好な性能を実現する。
論文 参考訳(メタデータ) (2020-12-30T05:57:20Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Early Exit or Not: Resource-Efficient Blind Quality Enhancement for
Compressed Images [54.40852143927333]
ロスシー画像圧縮は、通信帯域を節約するために広範に行われ、望ましくない圧縮アーティファクトをもたらす。
圧縮画像に対する資源効率の高いブラインド品質向上手法(RBQE)を提案する。
提案手法は, 評価された画像の品質に応じて, 自動的にエンハンスメントを終了するか, 継続するかを決定することができる。
論文 参考訳(メタデータ) (2020-06-30T07:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。