論文の概要: Unsupervised Joint Image Transfer and Uncertainty Quantification using
Patch Invariant Networks
- arxiv url: http://arxiv.org/abs/2207.04325v1
- Date: Sat, 9 Jul 2022 19:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 14:35:55.417613
- Title: Unsupervised Joint Image Transfer and Uncertainty Quantification using
Patch Invariant Networks
- Title(参考訳): パッチ不変ネットワークを用いた教師なし共同画像転送と不確かさ定量化
- Authors: Christoph Angermann and Markus Haltmeier and Ahsan Raza Siyal
- Abstract要約: 教師なし画像転送は、大量のペアトレーニングデータが不足している医療アプリケーションに対して、モダリティ内およびモダリティ間転送を可能にする。
既存の医療画像転送の方法は、一般にサイクル一貫性に基づいており、追加のリソースと不安定を引き起こす。
本稿では,一方向領域マッピングのための新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised image transfer enables intra- and inter-modality transfer for
medical applications where a large amount of paired training data is not
abundant. To ensure a structure-preserving mapping from the input to the target
domain, existing methods for unpaired medical image transfer are commonly based
on cycle-consistency, causing additional computation resources and instability
due to the learning of an inverse mapping. This paper presents a novel method
for uni-directional domain mapping where no paired data is needed throughout
the entire training process. A reasonable transfer is ensured by employing the
GAN architecture and a novel generator loss based on patch invariance. To be
more precise, generator outputs are evaluated and compared on different scales,
which brings increased attention to high-frequency details as well as implicit
data augmentation. This novel term also gives the opportunity to predict
aleatoric uncertainty by modeling an input-dependent scale map for the patch
residuals. The proposed method is comprehensively evaluated on three renowned
medical databases. Superior accuracy on these datasets compared to four
different state-of-the-art methods for unpaired image transfer suggests the
great potential of this approach for uncertainty-aware medical image
translation. Implementation of the proposed framework is released here:
https://github.com/anger-man/unsupervised-image-transfer-and-uq.
- Abstract(参考訳): 教師なし画像転送は、大量のペアトレーニングデータが不足している医療アプリケーションにおいて、モダリティ内およびモダリティ間転送を可能にする。
入力から対象領域への構造保存マッピングを確実にするため、未確認の医用画像転送の既存の方法は一般にサイクル一貫性に基づいており、逆マッピングの学習により計算資源や不安定性が増大する。
本稿では,トレーニングプロセス全体を通してペアデータを必要としない一方向領域マッピング法を提案する。
GANアーキテクチャとパッチ不変性に基づく新規なジェネレータ損失を用いることで、合理的な転送が保証される。
より正確に言うと、ジェネレータ出力は異なるスケールで評価され比較されるため、高周波の詳細や暗黙的なデータ拡張に注意が向けられる。
この新しい用語はまた、パッチ残差の入力依存スケールマップをモデル化することで、アレテータの不確実性を予測する機会を与える。
提案手法は3つの著名医用データベース上で包括的に評価される。
これらのデータセットの優れた精度は、不確実性を認識した医用画像翻訳におけるこのアプローチの大きな可能性を示唆している。
提案されたフレームワークの実装は以下の通りである。
関連論文リスト
- Adaptive Correspondence Scoring for Unsupervised Medical Image Registration [9.294341405888158]
既存の手法では、画像再構成を主要な監視信号として用いている。
そこで本研究では,学習中の誤り残差を対応スコアマップで再重み付けする適応フレームワークを提案する。
我々のフレームワークは、量的にも質的にも、他の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2023-12-01T01:11:22Z) - Zero-shot Medical Image Translation via Frequency-Guided Diffusion
Models [9.15810015583615]
構造保存画像変換のための拡散モデルを導出するために周波数領域フィルタを用いた周波数誘導拡散モデル(FGDM)を提案する。
その設計に基づいて、FGDMはゼロショット学習を可能にし、ターゲットドメインのデータのみに基づいてトレーニングし、ソース・ツー・ターゲットドメインの変換に直接使用することができる。
FGDMは、Frechet Inception Distance(FID)、Peak Signal-to-Noise Ratio(PSNR)、および構造的類似性の測定値において、最先端手法(GANベース、VAEベース、拡散ベース)よりも優れていた
論文 参考訳(メタデータ) (2023-04-05T20:47:40Z) - Uncertainty-Aware Source-Free Adaptive Image Super-Resolution with Wavelet Augmentation Transformer [60.31021888394358]
Unsupervised Domain Adaptation (UDA)は、現実世界の超解像(SR)における領域ギャップ問題に効果的に対処できる
本稿では,画像SR(SODA-SR)のためのSOurce-free Domain Adaptationフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-31T03:14:44Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - Radiomics-Guided Global-Local Transformer for Weakly Supervised
Pathology Localization in Chest X-Rays [65.88435151891369]
Radiomics-Guided Transformer (RGT)は、テキストトグロバル画像情報と、テキストトグロバル情報とを融合する。
RGTは、画像トランスフォーマーブランチ、放射能トランスフォーマーブランチ、および画像と放射線情報を集約する融合層から構成される。
論文 参考訳(メタデータ) (2022-07-10T06:32:56Z) - Implicit field learning for unsupervised anomaly detection in medical
images [0.8122270502556374]
オートデコーダフィードフォワードニューラルネットワークは、組織型のプロキシ上の空間座標と確率の間のマッピングという形で、健康な画像の分布を学習する。
回復画像のモデルにより予測されたボクセル的確率を用いて,異常の局所化を行う。
脳MR画像におけるグリオーマの非教師的局在化の課題に対して,本手法を検証し,他のVAEによる異常検出法と比較した。
論文 参考訳(メタデータ) (2021-06-09T16:57:22Z) - Self-Attentive Spatial Adaptive Normalization for Cross-Modality Domain
Adaptation [9.659642285903418]
放射線科医の費用負担を軽減するための医用画像のクロスモダリティ合成
本稿では,教師なしまたは教師なし(非ペア画像データ)の設定が可能な医用画像における画像から画像への変換手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T16:22:31Z) - Weakly-Supervised Cross-Domain Adaptation for Endoscopic Lesions
Segmentation [79.58311369297635]
異なるデータセットにまたがるトランスファー可能なドメイン不変知識を探索できる,新しい弱い教師付き病巣移動フレームワークを提案する。
wasserstein quantified transferability frameworkは、広い範囲の転送可能なコンテキスト依存性を強調するために開発されている。
新規な自己監督型擬似ラベル生成器は、送信困難かつ転送容易なターゲットサンプルの両方に対して、確実な擬似ピクセルラベルを等しく提供するように設計されている。
論文 参考訳(メタデータ) (2020-12-08T02:26:03Z) - Flow-based Deformation Guidance for Unpaired Multi-Contrast MRI
Image-to-Image Translation [7.8333615755210175]
本稿では,非可逆的アーキテクチャに基づく画像と画像の非対角変換に対する新しいアプローチを提案する。
我々は、連続スライス間の時間的情報を利用して、不適切な医療画像において、あるドメインを別のドメインに変換する最適化により多くの制約を与える。
論文 参考訳(メタデータ) (2020-12-03T09:10:22Z) - Adversarial Semantic Data Augmentation for Human Pose Estimation [96.75411357541438]
本研究では,セマンティックデータ拡張法 (SDA) を提案する。
また,適応的セマンティックデータ拡張 (ASDA) を提案する。
最先端の結果は、挑戦的なベンチマークで得られます。
論文 参考訳(メタデータ) (2020-08-03T07:56:04Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。