論文の概要: Custom Deep Neural Network for 3D Covid Chest CT-scan Classification
- arxiv url: http://arxiv.org/abs/2107.01456v1
- Date: Sat, 3 Jul 2021 15:54:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 07:37:24.877156
- Title: Custom Deep Neural Network for 3D Covid Chest CT-scan Classification
- Title(参考訳): 3次元胸部CTスキャン分類のためのカスタムディープニューラルネットワーク
- Authors: Quoc Huy Trinh, Minh Van Nguyen
- Abstract要約: 胸部CT-Scanベースは近年、議論を呼んでいる研究の1つだ。
本稿では,3次元CTスキャンの胸部画像の分類にDeep Neural Networkをカスタマイズし,組み合わせる手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D CT-scan base on chest is one of the controversial topisc of the researcher
nowadays. There are many tasks to diagnose the disease through CT-scan images,
include Covid19. In this paper, we propose a method that custom and combine
Deep Neural Network to classify the series of 3D CT-scans chest images. In our
methods, we experiment with 2 backbones is DenseNet 121 and ResNet 101. In this
proposal, we separate the experiment into 2 tasks, one is for 2 backbones
combination of ResNet and DenseNet, one is for DenseNet backbones combination.
- Abstract(参考訳): 胸部CT-Scanベースは近年、議論を呼んでいる研究の1つだ。
この疾患をCTスキャン画像で診断するには、Covid19を含む多くのタスクがある。
本稿では,深層ニューラルネットワークを用いて3次元ctスキャン胸部画像の系列を分類する手法を提案する。
提案手法では,DenseNet 121とResNet 101の2つのバックボーンを用いて実験を行った。
この提案では、実験を2つのタスクに分け、ひとつはResNetとDenseNetの2つのバックボーンの組み合わせ、もう一つはDenseNetのバックボーンの組み合わせです。
関連論文リスト
- Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - 2D and 3D CNN-Based Fusion Approach for COVID-19 Severity Prediction
from 3D CT-Scans [17.634096977363907]
この研究は、Covid-19 Severity Predictionの第3回COV19Dコンペティションの一部である。
本稿では,Stem,3D-ResNetの4層,分類ヘッド層,決定層という4つのブロックからなるハイブリッドDeCoVNetアーキテクチャを提案する。
提案手法は,Covid-19重症度予測のための第3回COV19Dコンペティションのバリデーションデータのベースラインアプローチを36%向上させた。
論文 参考訳(メタデータ) (2023-03-15T16:27:49Z) - Dual Multi-scale Mean Teacher Network for Semi-supervised Infection
Segmentation in Chest CT Volume for COVID-19 [76.51091445670596]
CT(Computed tomography)データから肺感染症を自動的に検出することは、COVID-19と戦う上で重要な役割を担っている。
現在の新型コロナウイルス感染症のセグメンテーションのほとんどは、主に3Dシーケンシャルな制約を欠いた2D CT画像に依存している。
既存の3次元CTセグメンテーション法では,3次元ボリュームにおける複数レベルの受容場サイズを達成できない単一スケールの表現に焦点が当てられている。
論文 参考訳(メタデータ) (2022-11-10T13:11:21Z) - Res-Dense Net for 3D Covid Chest CT-scan classification [4.587122314291089]
重み付きディープニューラルネットワークを用いて3次元CTスキャン画像からCovid 19を検出する手法を提案する。
この手法は,いくつかの評価指標において競合性能を達成する。
論文 参考訳(メタデータ) (2022-08-09T09:13:00Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - A Novel Hybrid Convolutional Neural Network for Accurate Organ
Segmentation in 3D Head and Neck CT Images [31.245109574064532]
本研究では,2次元と3次元の畳み込みを融合させて異なる空間解像度に対処し,3次元HaNCT画像から効果的なエッジとセマンティック特徴を抽出するハイブリッドCNNを提案する。
MICCAI 2015チャレンジデータセットの実験は、OrganNet2.5Dが最先端の手法と比較して有望なパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2021-09-26T15:37:47Z) - A hybrid deep learning framework for Covid-19 detection via 3D Chest CT
Images [5.3708513698154015]
本稿では,畳み込みニューラルネットワークとトランスフォーマーを組み合わせた3D胸部CT画像によるCOVID-19検出のためのハイブリッドディープラーニングフレームワークCTNetを提案する。
これは、CTスキャンから十分な特徴を抽出するためにSEが注目するCNN特徴抽出モジュールと、3D CTスキャンの識別特徴をモデル化するトランスフォーマーモデルで構成されている。
論文 参考訳(メタデータ) (2021-07-08T15:37:46Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - A$^3$DSegNet: Anatomy-aware artifact disentanglement and segmentation
network for unpaired segmentation, artifact reduction, and modality
translation [18.500206499468902]
CBCT画像は, ノイズ, 組織コントラストの低下, 金属物の存在により, 品質が低く, 人工物が混入している。
脊椎のアノテーションを付加した、人工物のない高品質なCT画像が豊富に存在する。
CBCT椎体分割モデルの構築には, アノテーションを付加した未確認CT画像が有用である。
論文 参考訳(メタデータ) (2020-01-02T06:37:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。