論文の概要: Unsupervised Contrastive Learning based Transformer for Lung Nodule
Detection
- arxiv url: http://arxiv.org/abs/2205.00122v1
- Date: Sat, 30 Apr 2022 01:19:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 13:25:48.524726
- Title: Unsupervised Contrastive Learning based Transformer for Lung Nodule
Detection
- Title(参考訳): 肺結節検出のための教師なしコントラスト学習型トランス
- Authors: Chuang Niu and Ge Wang
- Abstract要約: CTによる肺結節の早期発見は,肺癌患者の長期生存と生活の質の向上に不可欠である。
CAD (Computer-Aided Detection/diagnosis) はこの文脈において第2または同時読影器として有用である。
肺結節の正確な検出は、サイズ、位置、および肺結節の出現のばらつきにより、CADシステムや放射線技師にとって依然として困難である。
近年のコンピュータビジョン技術に触発されて,肺結節を同定するための自己教師付き領域ベース3次元トランスフォーマーモデルを提案する。
- 参考スコア(独自算出の注目度): 6.693379403133435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Early detection of lung nodules with computed tomography (CT) is critical for
the longer survival of lung cancer patients and better quality of life.
Computer-aided detection/diagnosis (CAD) is proven valuable as a second or
concurrent reader in this context. However, accurate detection of lung nodules
remains a challenge for such CAD systems and even radiologists due to not only
the variability in size, location, and appearance of lung nodules but also the
complexity of lung structures. This leads to a high false-positive rate with
CAD, compromising its clinical efficacy. Motivated by recent computer vision
techniques, here we present a self-supervised region-based 3D transformer model
to identify lung nodules among a set of candidate regions. Specifically, a 3D
vision transformer (ViT) is developed that divides a CT image volume into a
sequence of non-overlap cubes, extracts embedding features from each cube with
an embedding layer, and analyzes all embedding features with a self-attention
mechanism for the prediction. To effectively train the transformer model on a
relatively small dataset, the region-based contrastive learning method is used
to boost the performance by pre-training the 3D transformer with public CT
images. Our experiments show that the proposed method can significantly improve
the performance of lung nodule screening in comparison with the commonly used
3D convolutional neural networks.
- Abstract(参考訳): CTによる肺結節の早期発見は,肺癌患者の長期生存と生活の質の向上に不可欠である。
CAD (Computer-Aided Detection/diagnosis) はこの文脈において第2または同時読影器として有用である。
しかし, 肺結節の正確な検出は, 肺結節の大きさ, 位置, 出現の多様性だけでなく, 肺構造の複雑さから, CADシステムや放射線技師にとっても依然として困難である。
これはCADの偽陽性率が高く、臨床効果を阻害する。
近年のコンピュータビジョン技術に触発された本研究では,肺結節を同定する自己教師型領域ベース3Dトランスフォーマーモデルを提案する。
具体的には、CT画像量を非オーバーラップ立方体列に分割し、各立方体から埋め込み層で埋め込み特徴を抽出し、予測のための自己保持機構ですべての埋め込み特徴を解析する3D視覚変換器(ViT)を開発した。
比較的小さなデータセット上で変圧器モデルを効果的に訓練するために、領域ベースコントラスト学習法を用いて、3次元変圧器をパブリックCT画像で事前訓練することにより性能を向上させる。
提案手法は,一般的に使用される3次元畳み込みニューラルネットワークと比較して,肺結節スクリーニングの性能を著しく向上できることを示す。
関連論文リスト
- 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - High-Fidelity 3D Lung CT Synthesis in ARDS Swine Models Using Score-Based 3D Residual Diffusion Models [13.79974752491887]
急性呼吸不全症候群(ARDS)は、肺炎症と呼吸不全を特徴とする重症疾患であり、死亡率は約40%である。
胸部X線のような従来の画像撮影法は、肺病理の完全な評価において、その効果を制限し、2次元のビューのみを提供する。
本研究では, スコアベース3D残差拡散モデルを用いて2次元X線画像から高忠実度3D肺CTを合成する。
論文 参考訳(メタデータ) (2024-09-26T18:22:34Z) - Diff3Dformer: Leveraging Slice Sequence Diffusion for Enhanced 3D CT Classification with Transformer Networks [5.806035963947936]
拡散型3次元視覚変換器(Diff3Dformer)を提案する。
本手法は, 肺CTの2種類の小さなデータセットに対して, 改良された性能を示す。
論文 参考訳(メタデータ) (2024-06-24T23:23:18Z) - Application of Computer Deep Learning Model in Diagnosis of Pulmonary Nodules [5.058992545593932]
再建法を用いて肺の3次元シミュレーションモデルを構築した。
コンピュータ支援肺結節検出モデルを構築した。
診断率は従来の診断法に比べて有意に改善した。
論文 参考訳(メタデータ) (2024-06-19T04:27:27Z) - Robust deep labeling of radiological emphysema subtypes using squeeze
and excitation convolutional neural networks: The MESA Lung and SPIROMICS
Studies [34.200556207264974]
肺気腫は進行性で不可逆的な肺組織喪失である。
最近の研究は、肺CTにおける空間的インフォームド肺テクスチャパターン(ss)の教師なし学習につながっている。
肺CT上のss CNNとCTESの教師あり分類のための3次元圧縮・励起モデルを提案する。
論文 参考訳(メタデータ) (2024-03-01T03:45:56Z) - Swin-Tempo: Temporal-Aware Lung Nodule Detection in CT Scans as Video
Sequences Using Swin Transformer-Enhanced UNet [2.7547288571938795]
本稿では、畳み込みニューラルネットワークと視覚変換器の長所を利用する革新的なモデルを提案する。
ビデオ中の物体検出にインスパイアされた各3次元CT画像をビデオとして扱い、個々のスライスをフレームとして、肺結節をオブジェクトとして扱い、時系列アプリケーションを可能にする。
論文 参考訳(メタデータ) (2023-10-05T07:48:55Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - View-Disentangled Transformer for Brain Lesion Detection [50.4918615815066]
より正確な腫瘍検出のためのMRI特徴抽出のための新しいビューディペンタングル変換器を提案する。
まず, 3次元脳スキャンにおいて, 異なる位置の長距離相関を求める。
第二に、トランスフォーマーはスライス機能のスタックを複数の2Dビューとしてモデル化し、これらの機能をビュー・バイ・ビューとして拡張する。
第三に、提案したトランスモジュールをトランスのバックボーンに展開し、脳病変を取り巻く2D領域を効果的に検出する。
論文 参考訳(メタデータ) (2022-09-20T11:58:23Z) - Image Synthesis with Disentangled Attributes for Chest X-Ray Nodule
Augmentation and Detection [52.93342510469636]
肺癌早期検診では胸部X線像の肺結節検出が一般的である。
ディープラーニングに基づくコンピュータ支援診断(CAD)システムは、CXRの結節スクリーニングのために放射線科医をサポートすることができる。
このようなデータセットの可用性を損なうため,データ拡張のために肺結節合成法を提案する。
論文 参考訳(メタデータ) (2022-07-19T16:38:48Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。