論文の概要: Deep is a Luxury We Don't Have
- arxiv url: http://arxiv.org/abs/2208.06066v1
- Date: Thu, 11 Aug 2022 23:43:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-15 13:07:03.961451
- Title: Deep is a Luxury We Don't Have
- Title(参考訳): 深みは我々が持っていない高級品です
- Authors: Ahmed Taha, Yen Nhi Truong Vu, Brent Mombourquette, Thomas Paul
Matthews, Jason Su, Sadanand Singh
- Abstract要約: 本稿では,高分解能畳み込み変換器のための効率的な視覚モデルHCTを提案する。
HCTは、高解像度画像にトランスフォーマーの利点を著しく低コストでもたらす。
医用画像に対するHCTの適合性は, 有効受容野の評価により実証する。
- 参考スコア(独自算出の注目度): 4.1254464897602725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical images come in high resolutions. A high resolution is vital for
finding malignant tissues at an early stage. Yet, this resolution presents a
challenge in terms of modeling long range dependencies. Shallow transformers
eliminate this problem, but they suffer from quadratic complexity. In this
paper, we tackle this complexity by leveraging a linear self-attention
approximation. Through this approximation, we propose an efficient vision model
called HCT that stands for High resolution Convolutional Transformer. HCT
brings transformers' merits to high resolution images at a significantly lower
cost. We evaluate HCT using a high resolution mammography dataset. HCT is
significantly superior to its CNN counterpart. Furthermore, we demonstrate
HCT's fitness for medical images by evaluating its effective receptive
field.Code available at https://bit.ly/3ykBhhf
- Abstract(参考訳): 医用画像は解像度が高い。
高分解能は早期に悪性組織を見つけるのに不可欠である。
しかし、この解決は長い範囲の依存関係をモデリングすることの難しさを浮き彫りにする。
浅いトランスフォーマーではこの問題は解消されるが、二次的な複雑さに苦しむ。
本稿では,線形自己アテンション近似を用いて,この複雑性に取り組む。
この近似により,高分解能畳み込み変圧器を表すhctと呼ばれる効率的な視覚モデルを提案する。
HCTは、高解像度画像にトランスフォーマーの利点を著しく低コストでもたらす。
我々は高分解能マンモグラフィーデータセットを用いてHCTを評価する。
HCTはCNNよりもはるかに優れている。
さらに,医用画像に対するHCTの適合度を実効性受容野の評価により実証し,https://bit.ly/3ykBhhfで公開されている。
関連論文リスト
- DCT-HistoTransformer: Efficient Lightweight Vision Transformer with DCT Integration for histopathological image analysis [0.0]
視覚変換器(ViTs)を用いた乳がんの新しい軽度分類法を提案する。
離散コサイン変換(DCT)アテンションとMobileConvの並列処理経路を組み込むことで、空間領域の画像データを周波数領域に変換し、画像内の高周波数をフィルタリングするといった利点を利用する。
提案モデルでは,バイナリ分類では96.00%$pm$0.48%,マルチクラス分類では87.85%$pm$0.93%の精度が得られた。
論文 参考訳(メタデータ) (2024-10-24T21:16:56Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Transformer and GAN Based Super-Resolution Reconstruction Network for
Medical Images [0.0]
医用画像における超解像再構成がますます普及している(MRI)
本稿では,Transformer and Generative Adversarial Networks (T-GAN) を用いた低解像度画像から医用画像を再構成する深層学習戦略を提案する。
統合されたシステムは、より正確なテクスチャ情報を抽出し、グローバルな画像マッチングによって重要な位置に集中することができる。
論文 参考訳(メタデータ) (2022-12-26T09:52:12Z) - Single MR Image Super-Resolution using Generative Adversarial Network [0.696125353550498]
Real Enhanced Super Resolution Generative Adrial Network (Real-ESRGAN) は、高解像度画像の生成に使われている最近の効果的なアプローチの1つである。
本稿では,2次元MR画像の空間分解能を高めるために本手法を適用した。
論文 参考訳(メタデータ) (2022-07-16T23:15:10Z) - Cross-Modality High-Frequency Transformer for MR Image Super-Resolution [100.50972513285598]
我々はTransformerベースのMR画像超解像フレームワークを構築するための初期の取り組みを構築した。
我々は、高周波構造とモード間コンテキストを含む2つの領域先行について考察する。
我々は,Cross-modality High- frequency Transformer (Cohf-T)と呼ばれる新しいTransformerアーキテクチャを構築し,低解像度画像の超解像化を実現する。
論文 参考訳(メタデータ) (2022-03-29T07:56:55Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - High Quality Segmentation for Ultra High-resolution Images [72.97958314291648]
超高分解能セグメンテーション精錬作業のための連続精細モデルを提案する。
提案手法は画像分割精細化において高速かつ効果的である。
論文 参考訳(メタデータ) (2021-11-29T11:53:06Z) - Improved Transformer for High-Resolution GANs [69.42469272015481]
この課題に対処するために、Transformerに2つの重要な要素を紹介します。
実験で提案したHiTは、条件のないImageNetの31.87と2.95のFIDスコアをそれぞれ128×128$とFFHQの256×256$で達成していることを示す。
論文 参考訳(メタデータ) (2021-06-14T17:39:49Z) - Image Synthesis for Data Augmentation in Medical CT using Deep
Reinforcement Learning [31.677682150726383]
本手法は, 新規かつ解剖学的に高精度な高解像度CT画像の大量かつ多種多様な生成に有効であることを示す。
私たちのアプローチは、多くの研究者が利用可能な画像データの少ない量を考えると望ましい小さな画像データセットでも機能するように特別に設計されています。
論文 参考訳(メタデータ) (2021-03-18T19:47:11Z) - Hierarchical Amortized Training for Memory-efficient High Resolution 3D
GAN [52.851990439671475]
本稿では,高解像度な3D画像を生成することができる新しいエンドツーエンドGANアーキテクチャを提案する。
トレーニングと推論の異なる構成を使用することで、この目標を達成する。
3次元胸郭CTと脳MRIの実験により、我々のアプローチは画像生成における最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2020-08-05T02:33:04Z) - HRINet: Alternative Supervision Network for High-resolution CT image
Interpolation [3.7966959476339035]
我々は,高分解能CT画像の生成を目的とした,新しいネットワークであるHigh Resolution Interpolation Network (HRINet)を提案する。
本稿では,ACAI と GAN のアイデアを組み合わせて,教師なしと教師なしのトレーニングを適用して,代替監督手法の新たなアイデアを提案する。
実験の結果,2562,5122画像の定量的,定性的に大きな改善が見られた。
論文 参考訳(メタデータ) (2020-02-11T15:09:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。