論文の概要: Region Attention Transformer for Medical Image Restoration
- arxiv url: http://arxiv.org/abs/2407.09268v1
- Date: Fri, 12 Jul 2024 13:52:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-15 23:28:21.003912
- Title: Region Attention Transformer for Medical Image Restoration
- Title(参考訳): 医用画像復元用領域注意変換器
- Authors: Zhiwen Yang, Haowei Chen, Ziniu Qian, Yang Zhou, Hui Zhang, Dan Zhao, Bingzheng Wei, Yan Xu,
- Abstract要約: 領域ベースマルチヘッド自己注意機構(R-MSA)を利用した新しい領域注意変換器(RAT)を提案する。
RATは、ロバストなセグメンション・アシング・モデル(SAM)を用いて、入力画像を非重複セマンティック領域に分割する
この領域はより柔軟で解釈可能であり、類似のセマンティック領域のピクセルのみが互いに補完し、無関係な領域からの干渉を排除している。
PET画像合成,CT画像デノイング,病理画像超解像など,様々な医用画像復元作業におけるRATの有効性を示す実験を行った。
- 参考スコア(独自算出の注目度): 16.33261165253018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer-based methods have demonstrated impressive results in medical image restoration, attributed to the multi-head self-attention (MSA) mechanism in the spatial dimension. However, the majority of existing Transformers conduct attention within fixed and coarsely partitioned regions (\text{e.g.} the entire image or fixed patches), resulting in interference from irrelevant regions and fragmentation of continuous image content. To overcome these challenges, we introduce a novel Region Attention Transformer (RAT) that utilizes a region-based multi-head self-attention mechanism (R-MSA). The R-MSA dynamically partitions the input image into non-overlapping semantic regions using the robust Segment Anything Model (SAM) and then performs self-attention within these regions. This region partitioning is more flexible and interpretable, ensuring that only pixels from similar semantic regions complement each other, thereby eliminating interference from irrelevant regions. Moreover, we introduce a focal region loss to guide our model to adaptively focus on recovering high-difficulty regions. Extensive experiments demonstrate the effectiveness of RAT in various medical image restoration tasks, including PET image synthesis, CT image denoising, and pathological image super-resolution. Code is available at \href{https://github.com/Yaziwel/Region-Attention-Transformer-for-Medical-Image-Restoration.git}{https://github.com/RAT}.
- Abstract(参考訳): トランスフォーマーを用いた手法は, 空間次元におけるマルチヘッド自己注意機構(MSA)による医用画像復元において, 顕著な結果を示した。
しかし、既存のトランスフォーマーの大多数は、画像全体または固定パッチ全体(\text{e g })に注意を払っており、無関係な領域からの干渉と連続した画像内容の断片化をもたらす。
これらの課題を克服するために,領域ベースマルチヘッド自己注意機構(R-MSA)を利用した新しい領域注意変換器(RAT)を導入する。
R-MSAは、ロバストなSegment Anything Model(SAM)を使用して、入力画像を非重複セマンティック領域に動的に分割し、これらの領域内で自己注意を行う。
この領域分割はより柔軟で解釈可能であり、類似のセマンティック領域のピクセルだけが互いに補完し合い、無関係な領域からの干渉を排除できる。
さらに,高拡散領域の回復に適応的に焦点を合わせるために,焦点領域の損失を導入する。
PET画像合成,CT画像デノイング,病理画像超解像など,様々な医用画像復元作業におけるRATの有効性を広範囲にわたる実験により実証した。
コードは \href{https://github.com/Yaziwel/Region-Attention-Transformer-for-Medical-Image-Restoration.git}{https://github.com/RAT} で公開されている。
関連論文リスト
- Exploiting Regional Information Transformer for Single Image Deraining [40.96287901893822]
Region Transformer Block (RTB) は Region Masked Attention (RMA) 機構と Mixed Gate Forward Block (MGFB) を統合している
我々のモデルは最先端の性能に到達し、画像劣化の品質を著しく向上させる。
論文 参考訳(メタデータ) (2024-02-25T09:09:30Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Region-Aware Diffusion for Zero-shot Text-driven Image Editing [78.58917623854079]
本稿では,エンティティレベルの画像編集のための領域認識拡散モデル(RDM)を提案する。
画像の忠実度と推論速度のバランスをとるために,集中拡散パイプラインを設計する。
その結果、RDMは、視覚的品質、全体的な調和、非編集領域のコンテンツ保存、テキストイメージのセマンティック一貫性において、従来のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2023-02-23T06:20:29Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Accurate Image Restoration with Attention Retractable Transformer [50.05204240159985]
画像復元のためのアテンション・リトラクタブル・トランス (ART) を提案する。
ARTはネットワーク内の密集モジュールと疎開モジュールの両方を提示する。
画像超解像、デノナイジング、JPEG圧縮アーティファクト削減タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-10-04T07:35:01Z) - ScoreNet: Learning Non-Uniform Attention and Augmentation for
Transformer-Based Histopathological Image Classification [11.680355561258427]
高解像度画像はデジタル病理の進歩を妨げる。
パッチベースの処理は、しばしば複数のインスタンス学習(MIL)を組み込んで、画像レベルの予測をもたらす局所的なパッチレベルの表現を集約する。
本稿では,組織像分類に適したトランスフォーマーアーキテクチャを提案する。
局所的なきめ細かな注意と粗いグローバルな注意機構を組み合わせることで、高解像度画像の意味的な表現を効率的な計算コストで学習する。
論文 参考訳(メタデータ) (2022-02-15T16:55:09Z) - Disentanglement enables cross-domain Hippocampus Segmentation [1.2020488155038649]
ラベル付きトレーニングデータの限られた量は、医用画像の一般的な問題である。
これにより、よく一般化されたモデルをトレーニングすることが難しくなり、しばしば未知のドメインで失敗する。
我々は,T1強調MRI像を内容と領域に切り離し,この問題に対処する。
論文 参考訳(メタデータ) (2022-01-14T19:49:53Z) - Self-Attentive Spatial Adaptive Normalization for Cross-Modality Domain
Adaptation [9.659642285903418]
放射線科医の費用負担を軽減するための医用画像のクロスモダリティ合成
本稿では,教師なしまたは教師なし(非ペア画像データ)の設定が可能な医用画像における画像から画像への変換手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T16:22:31Z) - Unsupervised Bidirectional Cross-Modality Adaptation via Deeply
Synergistic Image and Feature Alignment for Medical Image Segmentation [73.84166499988443]
我々は、Synergistic Image and Feature Alignment (SIFA)と名付けられた新しい教師なしドメイン適応フレームワークを提案する。
提案するSIFAは、画像と特徴の両方の観点から、ドメインの相乗的アライメントを行う。
2つの異なるタスクに対する実験結果から,SIFA法は未ラベル対象画像のセグメンテーション性能を向上させるのに有効であることが示された。
論文 参考訳(メタデータ) (2020-02-06T13:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。