論文の概要: A New Perspective to Boost Vision Transformer for Medical Image
Classification
- arxiv url: http://arxiv.org/abs/2301.00989v1
- Date: Tue, 3 Jan 2023 07:45:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 14:04:09.701334
- Title: A New Perspective to Boost Vision Transformer for Medical Image
Classification
- Title(参考訳): 医用画像分類のための視覚トランスフォーマーの新展開
- Authors: Yuexiang Li, Yawen Huang, Nanjun He, Kai Ma and Yefeng Zheng
- Abstract要約: 本稿では,トランスフォーマーバックボーンを用いた医用画像分類のための自己教師付き学習手法を提案する。
我々のBOLTは、自己教師型表現学習のための2つのネットワーク、すなわちオンラインとターゲットのブランチで構成されています。
医療画像分類におけるBOLTの優位性は,ImageNetの事前学習量や最先端の自己教師型学習手法と比較して検証した。
- 参考スコア(独自算出の注目度): 33.215289791017064
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Transformer has achieved impressive successes for various computer vision
tasks. However, most of existing studies require to pretrain the Transformer
backbone on a large-scale labeled dataset (e.g., ImageNet) for achieving
satisfactory performance, which is usually unavailable for medical images.
Additionally, due to the gap between medical and natural images, the
improvement generated by the ImageNet pretrained weights significantly degrades
while transferring the weights to medical image processing tasks. In this
paper, we propose Bootstrap Own Latent of Transformer (BOLT), a self-supervised
learning approach specifically for medical image classification with the
Transformer backbone. Our BOLT consists of two networks, namely online and
target branches, for self-supervised representation learning. Concretely, the
online network is trained to predict the target network representation of the
same patch embedding tokens with a different perturbation. To maximally
excavate the impact of Transformer from limited medical data, we propose an
auxiliary difficulty ranking task. The Transformer is enforced to identify
which branch (i.e., online/target) is processing the more difficult perturbed
tokens. Overall, the Transformer endeavours itself to distill the
transformation-invariant features from the perturbed tokens to simultaneously
achieve difficulty measurement and maintain the consistency of self-supervised
representations. The proposed BOLT is evaluated on three medical image
processing tasks, i.e., skin lesion classification, knee fatigue fracture
grading and diabetic retinopathy grading. The experimental results validate the
superiority of our BOLT for medical image classification, compared to ImageNet
pretrained weights and state-of-the-art self-supervised learning approaches.
- Abstract(参考訳): Transformerは様々なコンピュータビジョンタスクで素晴らしい成功を収めた。
しかし、既存の研究の多くは、医療画像では利用できない満足なパフォーマンスを達成するために、大規模なラベル付きデータセット(例えばImageNet)でTransformerのバックボーンを事前訓練する必要がある。
さらに、医用画像と自然画像のギャップにより、ImageNetの事前訓練した重量による改善は、医療用画像処理タスクに重みを移しながら著しく低下する。
本稿では,トランスフォーマーバックボーンを用いた医用画像分類のための自己教師型学習手法であるBootstrap Own Latent of Transformer (BOLT)を提案する。
我々のBOLTは、自己教師型表現学習のための2つのネットワーク、すなわちオンラインとターゲットブランチで構成されています。
具体的には、オンラインネットワークは、異なる摂動を持つ同じパッチ埋め込みトークンのターゲットネットワーク表現を予測するように訓練される。
限られた医療データからトランスフォーマーの影響を最大化するために,補助的難易度ランキングタスクを提案する。
Transformerは、どのブランチ(オンライン/ターゲット)がより難しい乱れを処理しているかを特定するために強制される。
全体として、トランスフォーマーは、摂動トークンから変換不変な特徴を蒸留し、同時に難易度の測定と自己教師付き表現の一貫性を維持する。
提案するBOLTは, 皮膚病変分類, 膝関節疲労骨折評価, 糖尿病網膜症評価の3つの医療画像処理課題について評価した。
医療画像分類におけるBOLTの優位性は,ImageNetの事前学習量や最先端の自己教師型学習手法と比較して検証した。
関連論文リスト
- Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Image Deblurring by Exploring In-depth Properties of Transformer [86.7039249037193]
我々は、事前訓練された視覚変換器(ViT)から抽出した深い特徴を活用し、定量的な測定値によって測定された性能を犠牲にすることなく、回復した画像のシャープ化を促進する。
得られた画像と対象画像の変換器特徴を比較することにより、事前学習された変換器は、高解像度のぼやけた意味情報を提供する。
特徴をベクトルとみなし、抽出された画像から抽出された表現とユークリッド空間における対象表現との差を計算する。
論文 参考訳(メタデータ) (2023-03-24T14:14:25Z) - Understanding Transfer Learning for Chest Radiograph Clinical Report
Generation with Modified Transformer Architectures [0.0]
胸部X線画像入力から臨床報告を生成するために,一連の改良型トランスフォーマーを訓練する。
BLEU(1-4)、ROUGE-L、CIDEr、臨床のCheXbert F1スコアを用いて、我々のモデルを評価し、アートモデルの状態と競合するスコアを示す。
論文 参考訳(メタデータ) (2022-05-05T03:08:05Z) - Semi-Supervised Vision Transformers [76.83020291497895]
半教師付き画像分類のための視覚変換器の訓練について検討する。
半教師付き ImageNet 設定では,ビジョントランスフォーマーの性能が良くない。
CNNは小さなラベル付きデータ構造において優れた結果を得る。
論文 参考訳(メタデータ) (2021-11-22T09:28:13Z) - Transformer-Unet: Raw Image Processing with Unet [4.7944896477309555]
Unetの機能マップの代わりに、生画像にトランスフォーマーモジュールを追加することで、Transformer-Unetを提案する。
実験では、エンド・ツー・エンドのネットワークを構築し、従来の多くのUnetベースのアルゴリズムよりもセグメンテーション結果を得る。
論文 参考訳(メタデータ) (2021-09-17T09:03:10Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z) - Pyramid Medical Transformer for Medical Image Segmentation [8.157373686645318]
ピラミッド型ネットワークアーキテクチャ(PMTrans)を用いたマルチスケールアテンションとCNN特徴抽出を統合した新しい手法を開発した。
2つの医用画像データセット(腺セグメンテーションとMoNuSegデータセット)の実験結果によると、PMTransは最新のCNNベースおよびトランスフォーマーベースの医療用画像セグメンテーションモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-04-29T23:57:20Z) - TransMed: Transformers Advance Multi-modal Medical Image Classification [4.500880052705654]
畳み込みニューラルネットワーク(CNN)は、医療画像解析タスクで非常に競争力のあるパフォーマンスを示しています。
トランスフォーマーはコンピュータビジョンに適用され、大規模なデータセットで顕著な成功を収めた。
TransMedはCNNとトランスフォーマーの利点を組み合わせて、画像の低レベル特徴を効率的に抽出する。
論文 参考訳(メタデータ) (2021-03-10T08:57:53Z) - Medical Transformer: Gated Axial-Attention for Medical Image
Segmentation [73.98974074534497]
医用画像分割タスクにおけるトランスフォーマティブネットワークアーキテクチャの利用可能性について検討する。
セルフアテンションモジュールに追加の制御機構を導入することで,既存のアーキテクチャを拡張するGated Axial-Attentionモデルを提案する。
医療画像上で効果的にモデルを訓練するために,さらにパフォーマンスを向上させる局所的グローバルトレーニング戦略 (logo) を提案する。
論文 参考訳(メタデータ) (2021-02-21T18:35:14Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。