論文の概要: Masked Autoencoders for Low dose CT denoising
- arxiv url: http://arxiv.org/abs/2210.04944v1
- Date: Mon, 10 Oct 2022 18:27:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 14:35:50.377578
- Title: Masked Autoencoders for Low dose CT denoising
- Title(参考訳): 低用量CT用マスク付きオートエンコーダ
- Authors: Dayang Wang, Yongshun Xu, Shuo Han, Hengyong Yu
- Abstract要約: Masked Autoencoders (MAE) は, 変圧器のラベルフリー自己調整手法として提案されている。
我々は,従来のエンコーダ・デコーダ学習モデルを再設計し,これをLDCT復調問題に適用する。
- 参考スコア(独自算出の注目度): 9.575051352192697
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low-dose computed tomography (LDCT) reduces the X-ray radiation but
compromises image quality with more noises and artifacts. A plethora of
transformer models have been developed recently to improve LDCT image quality.
However, the success of a transformer model relies on a large amount of paired
noisy and clean data, which is often unavailable in clinical applications. In
computer vision and natural language processing fields, masked autoencoders
(MAE) have been proposed as an effective label-free self-pretraining method for
transformers, due to its excellent feature representation ability. Here, we
redesign the classical encoder-decoder learning model to match the denoising
task and apply it to LDCT denoising problem. The MAE can leverage the unlabeled
data and facilitate structural preservation for the LDCT denoising model when
ground truth data are missing. Experiments on the Mayo dataset validate that
the MAE can boost the transformer's denoising performance and relieve the
dependence on the ground truth data.
- Abstract(参考訳): 低線量CT(LDCT)はX線放射を低減させるが、より多くのノイズやアーティファクトで画質を損なう。
近年,LDCT画像の品質向上のため,多くのトランスフォーマーモデルが開発されている。
しかし、トランスモデルの成功は大量のノイズとクリーンなデータに依存しており、臨床応用では利用できないことが多い。
コンピュータビジョンや自然言語処理の分野では、マスク付きオートエンコーダ(mae)が、優れた特徴表現能力のため、トランスフォーマーのラベルフリーな自己予習法として提案されている。
本稿では,従来のエンコーダ・デコーダ学習モデルを再設計し,これをLDCT復調問題に適用する。
MAEは、未ラベルデータを活用することができ、地上真実データが欠落している場合にLDCT復調モデルの構造保存を容易にする。
マヨデータセットの実験では、MAEが変圧器の性能を向上し、地上の真理データへの依存を緩和できることが示された。
関連論文リスト
- Low-dose CT Denoising with Language-engaged Dual-space Alignment [21.172319554618497]
本稿では,低用量CTデノーミングモデルの最適化を目的としたLanguage-Engaged Dual-space Alignment Los (LEDA)を提案する。
我々の考えは、大きな言語モデル(LLM)を活用して、連続的な知覚空間と離散的な意味空間の両方において、鑑別CTおよび正常線量CT画像を整列させることである。
LEDAには2つのステップがある: まず、LCM誘導のCTオートエンコーダを事前訓練し、CT画像を連続的な高レベルな特徴にエンコードし、それらをトークン空間に量子化し、セマンティックトークンを生成する。
論文 参考訳(メタデータ) (2024-03-10T08:21:50Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - DiffiT: Diffusion Vision Transformers for Image Generation [94.50195596375316]
Diffusion Vision Transformers (DiffiT) はU字型エンコーダとデコーダを備えたハイブリッド階層アーキテクチャである。
DiffiTは、高忠実度画像を生成するのに驚くほど効果的です。
潜在領域では、DiffiTはImageNet-256データセットで1.73の新しいSOTA FIDスコアを達成している。
論文 参考訳(メタデータ) (2023-12-04T18:57:01Z) - LoMAE: Low-level Vision Masked Autoencoders for Low-dose CT Denoising [5.251624007533231]
Masked Autoencoders (MAE) は、トランスフォーマーの効果的なラベルなし自己調整法として認識されている。
我々は,MAE/LoMAEの潜伏学習機構に光を当てるためのMAE-GradCAM法を提案する。
実験により,提案したLoMAEは変圧器の遮音性能を向上し,真理クリーンデータへの依存を大幅に軽減できることが示された。
論文 参考訳(メタデータ) (2023-10-19T01:34:30Z) - Stimulating the Diffusion Model for Image Denoising via Adaptive
Embedding and Ensembling [60.62249137139699]
DMID(Diffusion Model for Image Denoising)と呼ばれる新しい手法を提案する。
我々の戦略は、雑音のある画像を事前訓練された非条件拡散モデルに埋め込む適応的な埋め込み法を含む。
我々のDMID戦略は、歪みベースと知覚ベースの両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-07-08T14:59:41Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - Treatment Learning Causal Transformer for Noisy Image Classification [62.639851972495094]
本研究では,この2値情報「ノイズの存在」を画像分類タスクに組み込んで予測精度を向上させる。
因果的変動推定から動機付け,雑音画像分類のための頑健な特徴表現を潜在生成モデルを用いて推定するトランスフォーマーに基づくアーキテクチャを提案する。
また、パフォーマンスベンチマークのための幅広いノイズ要素を取り入れた、新しいノイズの多い画像データセットも作成する。
論文 参考訳(メタデータ) (2022-03-29T13:07:53Z) - CTformer: Convolution-free Token2Token Dilated Vision Transformer for
Low-dose CT Denoising [11.67382017798666]
低線量CT(LDCT)はCT研究において重要な問題である。
視覚変換器は畳み込みニューラルネットワーク(CNN)よりも優れた特徴表現能力を示している
低用量CT用コンボリューションフリーToken2Token Dilated Vision Transformerを提案する。
論文 参考訳(メタデータ) (2022-02-28T02:58:16Z) - Eformer: Edge Enhancement based Transformer for Medical Image Denoising [0.0]
エンコーダデコーダネットワークを構築する新しいアーキテクチャであるEformer - Edge拡張ベースのトランスフォーマーを提案する。
オーバーラップしないウィンドウベースの自己アテンションは、計算要求を減らす変圧器ブロックで使用される。
論文 参考訳(メタデータ) (2021-09-16T15:18:21Z) - TED-net: Convolution-free T2T Vision Transformer-based Encoder-decoder
Dilation network for Low-dose CT Denoising [5.2227817530931535]
LDCT復号アルゴリズムのファミリを充実させるために,畳み込みフリーの視覚変換器ベースデコーダディレーションネットワーク(TED-net)を提案する。
AAPM-MayoクリニックLDCTグランドチャレンジデータセットを用いて,本モデルの評価を行った。
論文 参考訳(メタデータ) (2021-06-08T19:26:55Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。