論文の概要: Automatic Segmentation of Head and Neck Tumor: How Powerful Transformers
Are?
- arxiv url: http://arxiv.org/abs/2201.06251v1
- Date: Mon, 17 Jan 2022 07:31:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 15:08:50.198560
- Title: Automatic Segmentation of Head and Neck Tumor: How Powerful Transformers
Are?
- Title(参考訳): 頭頸部腫瘍の自動切開:トランスフォーマーはいかに強力か?
- Authors: Ikboljon Sobirov, Otabek Nazarov, Hussain Alasmawi, and Mohammad Yaqub
- Abstract要約: 我々は,H&N腫瘍を自動デライン化するための視覚変換器を用いた手法を開発した。
我々は、その結果をCNNベースのモデルと比較する。
選択した変換器ベースモデルにより,CNNベースモデルと同等の結果が得られることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Cancer is one of the leading causes of death worldwide, and head and neck
(H&N) cancer is amongst the most prevalent types. Positron emission tomography
and computed tomography are used to detect and segment the tumor region.
Clinically, tumor segmentation is extensively time-consuming and prone to
error. Machine learning, and deep learning in particular, can assist to
automate this process, yielding results as accurate as the results of a
clinician. In this research study, we develop a vision transformers-based
method to automatically delineate H&N tumor, and compare its results to leading
convolutional neural network (CNN)-based models. We use multi-modal data of CT
and PET scans to do this task. We show that the selected transformer-based
model can achieve results on a par with CNN-based ones. With cross validation,
the model achieves a mean dice similarity coefficient of 0.736, mean precision
of 0.766 and mean recall of 0.766. This is only 0.021 less than the 2020
competition winning model in terms of the DSC score. This indicates that the
exploration of transformer-based models is a promising research area.
- Abstract(参考訳): がんは世界有数の死因の1つであり、頭頸部がん(h&n cancer)は最も一般的ながんの1つである。
ポジトロン・エミッション・トモグラフィとctは腫瘍領域の検出と分画に使用される。
臨床的には、腫瘍の分節は広範囲に時間がかかり、エラーを起こしやすい。
機械学習、特にディープラーニングは、このプロセスを自動化し、臨床医の結果と同じ精度で結果を得ることができる。
本研究では,h&n腫瘍を自動的に診断する視覚トランスフォーマー(vision transformers)に基づく手法を開発し,その結果をcnn(leading convolutional neural network)モデルと比較する。
我々はCTとPETのマルチモーダルデータを用いてこの処理を行う。
選択したトランスモデルにより,CNNモデルと同等の結果が得られることを示す。
交差検証により、平均サイコロ類似度係数は0.736、平均精度は0.766、平均リコールは0.766となる。
これはdscスコアの点で2020年の優勝モデルよりわずか0.021少ない。
これはトランスフォーマーモデルの研究が有望な研究領域であることを示している。
関連論文リスト
- Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - Multi-class Brain Tumor Segmentation using Graph Attention Network [3.3635982995145994]
この研究は、MRIとグラフニューラルネットワーク(GNN)の進歩を生かして、効率的な脳腫瘍要約モデルを導入する。
このモデルは、ボリュームMRIを領域隣接グラフ(RAG)として表現し、グラフ注意ネットワーク(GAT)を通して腫瘍の種類を特定することを学習する。
論文 参考訳(メタデータ) (2023-02-11T04:30:40Z) - A Novel Mask R-CNN Model to Segment Heterogeneous Brain Tumors through
Image Subtraction [0.0]
画像セグメンテーション(画像セグメンテーション)と呼ばれる放射線学者による手法を用いて機械学習モデルに適用し,より優れたセグメンテーションを証明した。
Mask R-CNNは、RSNA肺炎検出チャレンジデータセットで事前トレーニングされたResNetバックボーンであり、Brats 2020 Brain tumorデータセットでモデルをトレーニングすることができる。
DICE係数(F1スコア)、リコール、未タッチテストセットの精度による画像サブトラクションを伴わないモデルと比較することにより、画像サブトラクションの手法がいかにうまく機能するかを確認できる。
論文 参考訳(メタデータ) (2022-04-04T01:45:11Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Squeeze-and-Excitation Normalization for Automated Delineation of Head
and Neck Primary Tumors in Combined PET and CT Images [3.2694564664990753]
ポジトロン発光トモグラフィ/CT(PET/CT)画像を組み合わせることで、ヘッドアンドネック(H&N)一次腫瘍分割の自動化に貢献します。
残層を持つU-Netアーキテクチャを設計し,Squeeze-and-Excitation Normalizationを補足した。
本手法は,クロスバリデーション (DSC 0.745, 精度 0.760, リコール 0.789) と試験セット (DSC 0.759, 精度 0.833, リコール 0.740) で達成し, HECKTORチャレンジで優勝した。
論文 参考訳(メタデータ) (2021-02-20T21:06:59Z) - Brain Tumor Segmentation and Survival Prediction using Automatic Hard
mining in 3D CNN Architecture [0.30098583327398537]
我々は3次元完全畳み込みニューラルネットワーク(CNN)を用いて、マルチモーダル磁気共鳴画像(MRI)からグリオーマとその構成成分を抽出する。
このアーキテクチャでは、密度の高い接続パターンを使用して重量と残留接続数を削減し、BraTS 2018データセットでこのモデルをトレーニングした結果の重量は0.448である。
シース類似度係数(DSC)の閾値を高めて、エポックの増加とともにハードケースを選択することにより、セグメンテーションタスクの難しいケースを訓練するために、トレーニング中にハードマイニングを行う。
論文 参考訳(メタデータ) (2021-01-05T14:34:16Z) - Comparison of different CNNs for breast tumor classification from
ultrasound images [12.98780709853981]
超音波画像から良性腫瘍と悪性腫瘍を分類することは重要であるが困難な課題である。
乳腺腫瘍自動分類の課題として,様々な畳み込みニューラルネットワーク(cnns)と転送学習法を比較した。
最高の性能は、精度0.919とauc0.934のvgg-16の微調整によって得られた。
論文 参考訳(メタデータ) (2020-12-28T22:54:08Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。