論文の概要: Vision Transformer for Classification of Breast Ultrasound Images
- arxiv url: http://arxiv.org/abs/2110.14731v1
- Date: Wed, 27 Oct 2021 19:33:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 15:28:25.794601
- Title: Vision Transformer for Classification of Breast Ultrasound Images
- Title(参考訳): 乳房超音波画像分類のための視覚トランスフォーマ
- Authors: Behnaz Gheflati and Hassan Rivaz
- Abstract要約: イメージパッチ間の自己アテンションに基づく視覚変換器(ViT)の設計は、CNNに代わる大きな可能性を示している。
そこで本研究では,ViTを用いて乳房画像の分類を行った。
その結果、VTモデルは、米国の乳房画像の分類において、CNNと同等かそれ以上の効率であることが示された。
- 参考スコア(独自算出の注目度): 5.50791468454604
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Medical ultrasound (US) imaging has become a prominent modality for breast
cancer imaging due to its ease-of-use, low-cost and safety. In the past decade,
convolutional neural networks (CNNs) have emerged as the method of choice in
vision applications and have shown excellent potential in automatic
classification of US images. Despite their success, their restricted local
receptive field limits their ability to learn global context information.
Recently, Vision Transformer (ViT) designs that are based on self-attention
between image patches have shown great potential to be an alternative to CNNs.
In this study, for the first time, we utilize ViT to classify breast US images
using different augmentation strategies. The results are provided as
classification accuracy and Area Under the Curve (AUC) metrics, and the
performance is compared with the state-of-the-art CNNs. The results indicate
that the ViT models have comparable efficiency with or even better than the
CNNs in classification of US breast images.
- Abstract(参考訳): 医用超音波(us)画像は, 使いやすさ, 安価, 安全性から, 乳がん画像診断の特長となっている。
過去10年間で、畳み込みニューラルネットワーク(CNN)が視覚応用の方法として登場し、米国の画像の自動分類において優れた可能性を示している。
彼らの成功にもかかわらず、その制限された局所受容領域は、グローバルな文脈情報を学ぶ能力を制限する。
近年,画像パッチ間の自己アテンションに基づく視覚変換器 (ViT) の設計は,CNNの代替として大きな可能性を示している。
本研究では,ViTを用いて乳房画像の分類を行った。
結果は、分類精度とAUC(Area Under the Curve)メトリクスとして提供され、その性能は最先端のCNNと比較される。
以上の結果から,vitモデルは乳房画像分類においてcnnと同等かそれ以上の効率を示した。
関連論文リスト
- Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - Pretrained ViTs Yield Versatile Representations For Medical Images [4.443013185089128]
ヴィジュアルトランスフォーマー(ViT)はCNNの対抗馬として登場している。
いくつかの標準的な2次元医用画像ベンチマークのデータセットとタスクについて、一連の実験を行った。
以上の結果から,CNNはスクラッチからトレーニングすると性能が向上するが,ImageNetで事前トレーニングを行った場合,市販のビジョントランスフォーマーはCNNと同等に動作可能であることがわかった。
論文 参考訳(メタデータ) (2023-03-13T11:53:40Z) - Generating and Weighting Semantically Consistent Sample Pairs for
Ultrasound Contrastive Learning [10.631361618707214]
よく注釈付けされた医療データセットにより、ディープニューラルネットワーク(DNN)は、病変に関連する特徴を抽出する上で強力なパワーを得ることができる。
ImageNetに基づくモデル事前トレーニングは、データ量に制限がある場合に、より良い一般化を得るための一般的なプラクティスである。
本研究では,医療用USアプリケーションの領域ギャップを低減するために,ImageNetの代わりに超音波(US)ドメインを事前訓練する。
論文 参考訳(メタデータ) (2022-12-08T06:24:08Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Stain Normalized Breast Histopathology Image Recognition using
Convolutional Neural Networks for Cancer Detection [9.826027427965354]
近年の進歩により、畳み込みニューラルネットワーク(CNN)アーキテクチャは乳がん検出のためのコンピュータ支援診断(CAD)システムの設計に利用できることが示されている。
乳腺病理像の2値分類のためのCNNモデルについて検討した。
我々は,200倍,400倍に拡大した病理像に対して,トレーニング済みのCNNネットワークを利用可能なBreaKHisデータセットで検証した。
論文 参考訳(メタデータ) (2022-01-04T03:09:40Z) - Explainable AI and susceptibility to adversarial attacks: a case study
in classification of breast ultrasound images [5.50791468454604]
CNN法は乳房の超音波像を良性または悪性に分類する有望な結果を示している。
しかし、CNN推論はブラックボックスモデルとして機能し、その決定は解釈できない。
本研究では、これらの重要地図を劇的に変更するために、事実上検出不可能な敵攻撃をどのように考案するかを分析する。
論文 参考訳(メタデータ) (2021-08-09T23:52:16Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Learned super resolution ultrasound for improved breast lesion
characterization [52.77024349608834]
超高分解能超音波局在顕微鏡は毛細血管レベルでの微小血管のイメージングを可能にする。
この作業では、これらの課題に対処するために、信号構造を効果的に活用するディープニューラルネットワークアーキテクチャを使用します。
トレーニングしたネットワークを利用することで,従来のPSF知識を必要とせず,UCAの分離性も必要とせず,短時間で微小血管構造を復元する。
論文 参考訳(メタデータ) (2021-07-12T09:04:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。