論文の概要: Vision Transformers for femur fracture classification
- arxiv url: http://arxiv.org/abs/2108.03414v1
- Date: Sat, 7 Aug 2021 10:12:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 15:36:49.502095
- Title: Vision Transformers for femur fracture classification
- Title(参考訳): 大腿骨骨折分類のための視覚トランスフォーマー
- Authors: Leonardo Tanzi and Andrea Audisio and Giansalvo Cirrincione and
Alessandro Aprato and Enrico Vezzetti
- Abstract要約: Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
- 参考スコア(独自算出の注目度): 59.99241204074268
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Objectives: In recent years, the scientific community has focused on the
development of Computer-Aided Diagnosis (CAD) tools that could improve bone
fractures' classification. However, the results of the classification of
fractures in subtypes with the proposed datasets were far from optimal. This
paper proposes a very recent and outperforming deep learning technique, the
Vision Transformer (ViT), in order to improve the fracture classification, by
exploiting its self-attention mechanism.
Methods: 4207 manually annotated images were used and distributed, by
following the AO/OTA classification, in different fracture types, the largest
labeled dataset of proximal femur fractures used in literature. The ViT
architecture was used and compared with a classic Convolutional Neural Network
(CNN) and a multistage architecture composed by successive CNNs in cascade. To
demonstrate the reliability of this approach, 1) the attention maps were used
to visualize the most relevant areas of the images, 2) the performance of a
generic CNN and ViT was also compared through unsupervised learning techniques,
and 3) 11 specialists were asked to evaluate and classify 150 proximal femur
fractures' images with and without the help of the ViT.
Results: The ViT was able to correctly predict 83% of the test images.
Precision, recall and F1-score were 0.77 (CI 0.64-0.90), 0.76 (CI 0.62-0.91)
and 0.77 (CI 0.64-0.89), respectively. The average specialists' diagnostic
improvement was 29%.
Conclusions: This paper showed the potential of Transformers in bone fracture
classification. For the first time, good results were obtained in sub-fractures
with the largest and richest dataset ever.
- Abstract(参考訳): 目的: 近年, 科学コミュニティは, 骨骨折の分類を改善するコンピュータ支援診断(cad)ツールの開発に力を入れている。
しかし,提案するデータを用いたサブタイプの破壊分類の結果は最適とはほど遠い。
本稿では, 自己着脱機構を活用し, 破壊分類を改善するため, 最新かつ高性能な深層学習技術である視覚トランスフォーマ(vit)を提案する。
方法: 4207 手動でアノテートした画像を用いて, AO/OTA分類に従えば, 文献で使用される大腿骨近位部骨折のデータセットとしては最大である。
ViTアーキテクチャは、古典的な畳み込みニューラルネットワーク(CNN)や、連続したCNNがカスケードで構成する多段階アーキテクチャと比較・使用した。
このアプローチの信頼性を示すために,1) 画像の最も関連する領域を可視化するために注意マップを用い, 2) 一般的なcnnとvitの性能を教師なしの学習手法で比較し,3) 11名の専門家に対してvitの助けなしに150の大腿骨近位骨折の画像の評価と分類を依頼した。
結果: ViTはテスト画像の83%を正確に予測することができた。
精度は0.77 (ci 0.64-0.90), 0.76 (ci 0.62-0.91), 0.77 (ci 0.64-0.89) であった。
診断改善率は平均29%であった。
結論: 骨骨折分類におけるトランスフォーマーの可能性を示した。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで、初めて良い結果が得られた。
関連論文リスト
- Vision Transformer for Efficient Chest X-ray and Gastrointestinal Image
Classification [2.3293678240472517]
本研究では,多種多様なCNNとトランスフォーマーを用いたデータ拡張手法を提案する。
異なるモダリティから3つの医用画像データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-04-23T04:07:03Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Predicting skull fractures via CNN with classification algorithms [0.0]
ResNet50は、頭蓋骨の骨折を脳のCTスキャンから3つの骨折カテゴリに分類するために開発された。
F1スコアは96%、ハミングスコアは95%、バランスドスコアは94%、OC AUC曲線は96%であった。
論文 参考訳(メタデータ) (2022-08-14T01:37:23Z) - Automated SSIM Regression for Detection and Quantification of Motion
Artefacts in Brain MR Images [54.739076152240024]
磁気共鳴脳画像における運動アーチファクトは重要な問題である。
MR画像の画質評価は,臨床診断に先立って基本的である。
構造類似度指数(SSIM)回帰に基づく自動画像品質評価法が提案されている。
論文 参考訳(メタデータ) (2022-06-14T10:16:54Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - Classification of Fracture and Normal Shoulder Bone X-Ray Images Using
Ensemble and Transfer Learning With Deep Learning Models Based on
Convolutional Neural Networks [0.0]
様々な理由で肩骨折が起こり、身体の他の関節よりも広く、より多様な動きの領域が生じる。
画像はX線(X線)、磁気共鳴画像(MRI)、CT(CT)デバイスを介して肩用のデジタルイメージング・通信(DICOM)フォーマットで生成される。
移動学習とアンサンブル学習を用いた畳み込みニューラルネットワーク(CNN)に基づく深層学習モデルを用いて,肩骨X線画像の分類と比較を行った。
論文 参考訳(メタデータ) (2021-01-31T19:20:04Z) - A Deep Learning Study on Osteosarcoma Detection from Histological Images [6.341765152919201]
最も一般的な悪性骨腫瘍は骨肉腫である。
CNNは、外科医の作業量を著しく減らし、患者の状態の予後を良くする。
CNNは、より信頼できるパフォーマンスを達成するために、大量のデータをトレーニングする必要があります。
論文 参考訳(メタデータ) (2020-11-02T18:16:17Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Joint Learning of Vessel Segmentation and Artery/Vein Classification
with Post-processing [27.825969553813092]
血管分節と動脈・静脈の分類は、潜在的な疾患について様々な情報を提供する。
我々は、UNetベースのモデルSeqNetを採用し、背景から船舶を正確に分割し、船舶のタイプを予測する。
実験の結果,AUCを0.98に改善し,DRIVEデータセットの分類精度は0.92に向上した。
論文 参考訳(メタデータ) (2020-05-27T13:06:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。