論文の概要: Learn From Orientation Prior for Radiograph Super-Resolution:
Orientation Operator Transformer
- arxiv url: http://arxiv.org/abs/2312.16455v1
- Date: Wed, 27 Dec 2023 07:56:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 19:27:56.256528
- Title: Learn From Orientation Prior for Radiograph Super-Resolution:
Orientation Operator Transformer
- Title(参考訳): 超解像の指向性から学ぶ:指向性演算子変換器
- Authors: Yongsong Huang, Tomo Miyazaki, Xiaofeng Liu, Kaiyuan Jiang, Zhengmi
Tang, Shinichiro Omachi
- Abstract要約: 高解像度X線画像は骨格筋関連疾患の早期診断と治療において重要な役割を担っている。
放射線画像場に単一画像超解像(SISR)モデルを導入することにより,画質の向上が期待できる。
従来の画像パイプラインは、色空間と画素間パターンからSRとdenoisingの混合マッピングを学習することができる。
- 参考スコア(独自算出の注目度): 8.009052363001903
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Background and objective: High-resolution radiographic images play a pivotal
role in the early diagnosis and treatment of skeletal muscle-related diseases.
It is promising to enhance image quality by introducing single-image
super-resolution (SISR) model into the radiology image field. However, the
conventional image pipeline, which can learn a mixed mapping between SR and
denoising from the color space and inter-pixel patterns, poses a particular
challenge for radiographic images with limited pattern features. To address
this issue, this paper introduces a novel approach: Orientation Operator
Transformer - $O^{2}$former. Methods: We incorporate an orientation operator in
the encoder to enhance sensitivity to denoising mapping and to integrate
orientation prior. Furthermore, we propose a multi-scale feature fusion
strategy to amalgamate features captured by different receptive fields with the
directional prior, thereby providing a more effective latent representation for
the decoder. Based on these innovative components, we propose a
transformer-based SISR model, i.e., $O^{2}$former, specifically designed for
radiographic images. Results: The experimental results demonstrate that our
method achieves the best or second-best performance in the objective metrics
compared with the competitors at $\times 4$ upsampling factor. For qualitative,
more objective details are observed to be recovered. Conclusions: In this
study, we propose a novel framework called $O^{2}$former for radiological image
super-resolution tasks, which improves the reconstruction model's performance
by introducing an orientation operator and multi-scale feature fusion strategy.
Our approach is promising to further promote the radiographic image enhancement
field.
- Abstract(参考訳): 背景と目的:高分解能画像は骨格筋疾患の早期診断と治療において重要な役割を果たす。
放射線画像場に単一画像超解像(SISR)モデルを導入することにより,画質の向上が期待できる。
しかし、色空間と画素間パターンからSRとdenoisingの混合マッピングを学習できる従来の画像パイプラインは、限られたパターン特徴を持つX線画像に対して特別な課題を生んでいる。
この問題に対処するため,本稿では,Orientation Operator Transformer - $O^{2}$formerという新しいアプローチを提案する。
メソッド: エンコーダに向き付け演算子を組み込んで、マッピングの感度を高め、向き付けを事前に統合します。
さらに,向きの異なる受容場でキャプチャされた特徴を,より効果的なデコーダの潜在表現にするために,マルチスケール特徴融合戦略を提案する。
これらのイノベーティブなコンポーネントに基づいて,放射線画像専用に設計された変圧器ベースのsisrモデル,すなわち$o^{2}$formerを提案する。
結果: 本手法は,$\times 4$ upsampling factorの競合と比較して, 客観的指標において, 最高または2番目に優れた性能が得られることを示す。
定性的には、より客観的な詳細が復元される。
結論: 本研究は, 方向演算子とマルチスケール特徴融合戦略を導入することで, 再構成モデルの性能を向上させる放射線画像超解像タスクのための $o^{2}$former という新しい枠組みを提案する。
我々のアプローチは、X線画像強調分野のさらなる推進を約束する。
関連論文リスト
- CWT-Net: Super-resolution of Histopathology Images Using a Cross-scale Wavelet-based Transformer [15.930878163092983]
超解像(SR)は低解像度画像の品質を高めることを目的としており、医用画像に広く応用されている。
我々は,画像ウェーブレット変換とトランスフォーマーアーキテクチャを利用した,CWT-Netと呼ばれる新しいネットワークを提案する。
本モデルは, 性能評価と可視化評価において, 最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-09-11T08:26:28Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - SeUNet-Trans: A Simple yet Effective UNet-Transformer Model for Medical
Image Segmentation [0.0]
医用画像セグメンテーションのためのシンプルなUNet-Transformer(seUNet-Trans)モデルを提案する。
提案手法では,UNetモデルを特徴抽出器として設計し,入力画像から複数の特徴マップを生成する。
UNetアーキテクチャと自己認識機構を活用することで、我々のモデルはローカルとグローバルの両方のコンテキスト情報を保存するだけでなく、入力要素間の長距離依存関係をキャプチャできる。
論文 参考訳(メタデータ) (2023-10-16T01:13:38Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z) - Rethinking Degradation: Radiograph Super-Resolution via AID-SRGAN [9.599347633285635]
超解像超解像のための医療用 AttentIon Denoising Super Resolution Generative Adversarial Network (AID-SRGAN) を提案する。
我々の知る限りでは、これがX線画像に初めて提案された複合劣化モデルである。
提案手法はPSNRの311.90ドル,スケール係数は4倍であり,近年の成果よりも7.05%高い。
論文 参考訳(メタデータ) (2022-08-05T06:54:44Z) - Hierarchical Similarity Learning for Aliasing Suppression Image
Super-Resolution [64.15915577164894]
エイリアスの影響を抑制するために階層画像超解像ネットワーク(HSRNet)を提案する。
HSRNetは、他の作品よりも定量的かつ視覚的なパフォーマンスを向上し、エイリアスをより効果的に再送信する。
論文 参考訳(メタデータ) (2022-06-07T14:55:32Z) - Cross-Modality High-Frequency Transformer for MR Image Super-Resolution [100.50972513285598]
我々はTransformerベースのMR画像超解像フレームワークを構築するための初期の取り組みを構築した。
我々は、高周波構造とモード間コンテキストを含む2つの領域先行について考察する。
我々は,Cross-modality High- frequency Transformer (Cohf-T)と呼ばれる新しいTransformerアーキテクチャを構築し,低解像度画像の超解像化を実現する。
論文 参考訳(メタデータ) (2022-03-29T07:56:55Z) - Cross-View Panorama Image Synthesis [68.35351563852335]
PanoGANは、新しい敵対的フィードバックGANフレームワークである。
PanoGANは、最先端のアプローチよりもより説得力のある、高品質なパノラマ画像生成を可能にする。
論文 参考訳(メタデータ) (2022-03-22T15:59:44Z) - Multimodal-Boost: Multimodal Medical Image Super-Resolution using
Multi-Attention Network with Wavelet Transform [5.416279158834623]
対応する画像分解能の喪失は、医用画像診断の全体的な性能を低下させる。
ディープラーニングベースのシングルイメージスーパーレゾリューション(SISR)アルゴリズムは、全体的な診断フレームワークに革命をもたらした。
本研究は,低周波データから高頻度情報を学習する深層マルチアテンションモジュールを用いたGAN(Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2021-10-22T10:13:46Z) - Exploring Separable Attention for Multi-Contrast MR Image
Super-Resolution [88.16655157395785]
本稿では,SANet という,分離可能なアテンションネットワーク (優先のアテンションと背景分離のアテンションを含む) を提案する。
補助コントラストの助けを借りて、前後方向の前景と背景領域を探索することができる。
これは、補助コントラストを用いて前景と背景領域を予測する分離可能なアテンションメカニズムを探索する最初のモデルである。
論文 参考訳(メタデータ) (2021-09-03T05:53:07Z) - Beyond Fine-tuning: Classifying High Resolution Mammograms using
Function-Preserving Transformations [32.40975574666405]
マンモグラムを分類する作業は、通常、病変が高解像度画像で小さいため、非常に困難です。
本稿では,MorphHRという新しいフレームワークを導入して,微調整以上のものを提案する。
提案するフレームワークは, 連続した非線形活性化ニューロンに対して, 機能保存変換を統合し, 内部的にネットワークを正規化し, マンモグラム分類を改善する。
論文 参考訳(メタデータ) (2021-01-20T03:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。