論文の概要: OARnet: Automated organs-at-risk delineation in Head and Neck CT images
- arxiv url: http://arxiv.org/abs/2108.13987v1
- Date: Tue, 31 Aug 2021 17:16:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-01 14:20:55.017551
- Title: OARnet: Automated organs-at-risk delineation in Head and Neck CT images
- Title(参考訳): oarnet:頭頸部ct画像における自動臓器・リスクデライン化
- Authors: Mumtaz Hussain Soomro, Hamidreza Nourzadeh, Victor Gabriel Leandro
Alves, Wookjin Choi, Jeffrey V. Siebers
- Abstract要約: トレーニングでは165個のCTから28個の専門的マニュアルデライン化(MD)OARを使用する。
MDに対するDice coefficient similarity (DSC) と95%のHausdorff distance (HD95) を70のCTで評価した。
OARnetはUaNet、AnatomyNet、Multi-Atlas(MAS)と比較される
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A 3D deep learning model (OARnet) is developed and used to delineate 28 H&N
OARs on CT images. OARnet utilizes a densely connected network to detect the
OAR bounding-box, then delineates the OAR within the box. It reuses information
from any layer to subsequent layers and uses skip connections to combine
information from different dense block levels to progressively improve
delineation accuracy. Training uses up to 28 expert manual delineated (MD) OARs
from 165 CTs. Dice similarity coefficient (DSC) and the 95th percentile
Hausdorff distance (HD95) with respect to MD is assessed for 70 other CTs.
Mean, maximum, and root-mean-square dose differences with respect to MD are
assessed for 56 of the 70 CTs. OARnet is compared with UaNet, AnatomyNet, and
Multi-Atlas Segmentation (MAS). Wilcoxon signed-rank tests using 95% confidence
intervals are used to assess significance. Wilcoxon signed ranked tests show
that, compared with UaNet, OARnet improves (p<0.05) the DSC (23/28 OARs) and
HD95 (17/28). OARnet outperforms both AnatomyNet and MAS for DSC (28/28) and
HD95 (27/28). Compared with UaNet, OARnet improves median DSC up to 0.05 and
HD95 up to 1.5mm. Compared with AnatomyNet and MAS, OARnet improves median
(DSC, HD95) by up to (0.08, 2.7mm) and (0.17, 6.3mm). Dosimetrically, OARnet
outperforms UaNet (Dmax 7/28; Dmean 10/28), AnatomyNet (Dmax 21/28; Dmean
24/28), and MAS (Dmax 22/28; Dmean 21/28). The DenseNet architecture is
optimized using a hybrid approach that performs OAR-specific bounding box
detection followed by feature recognition. Compared with other auto-delineation
methods, OARnet is better than or equal to UaNet for all but one geometric
(Temporal Lobe L, HD95) and one dosimetric (Eye L, mean dose) endpoint for the
28 H&N OARs, and is better than or equal to both AnatomyNet and MAS for all
OARs.
- Abstract(参考訳): 3次元深層学習モデル(OARnet)を開発し,28個のH&N OARをCT画像上に記述する。
OARnetは密結合ネットワークを使用してOARバウンディングボックスを検出し、ボックス内でOARをデライン化する。
任意のレイヤから次のレイヤに情報を再利用し、スキップ接続を使用して異なる密度のブロックレベルの情報を組み合わせて、徐々にデライン化精度を向上させる。
トレーニングでは165個のCTから28個の専門的マニュアルデライン化(MD)OARを使用する。
MDに対するDice similarity coefficient (DSC) と95%のHausdorff distance (HD95) を70のCTで評価した。
70例中56例において, MDに対する平均, 最大, ルート平均2乗線量差を評価した。
OARnetはUaNet、AnatomyNet、Multi-Atlas Segmentation (MAS)と比較される。
95%信頼区間を用いたウィルコクソンの署名ランク試験は、重要度を評価するために用いられる。
ウィルコクソンはUaNetと比較して(p<0.05)DSC(23/28 OAR)とHD95(17/28)を改善した。
OARnet は AnatomyNet と MAS for DSC (28/28) と HD95 (27/28) より優れている。
UaNetと比較して、OARnetは中央値のDSCを0.05、HD95を1.5mmに改善している。
AnatomyNetやMASと比較して、OARnetは中央値(DSC, HD95)を0.08, 2.7mmと0.17, 6.3mmに改善する。
OARnetはUaNet(Dmax 7/28; Dmean 10/28)、AnatomyNet(Dmax 21/28; Dmean 24/28)、MAS(Dmax 22/28; Dmean 21/28)より優れている。
DenseNetアーキテクチャは、OAR固有のバウンディングボックス検出と機能認識を行うハイブリッドアプローチを使って最適化されている。
他の自動デライン法と比較して、OARnetは1つの幾何(Temporal Lobe L, HD95)と1つのドシメトリック(Eye L, mean dose)エンドポイントを除く全ての幾何学的(Temporal Lobe L, HD95)ではUaNetより優れており、全てのOARではAnatomyNetとMASより優れている。
関連論文リスト
- MedSegMamba: 3D CNN-Mamba Hybrid Architecture for Brain Segmentation [15.514511820130474]
我々は皮質下脳分割のための3DパッチベースのハイブリッドCNN-Mambaモデルを開発した。
モデルの性能をいくつかのベンチマークで検証した。
論文 参考訳(メタデータ) (2024-09-12T02:19:19Z) - Handling Geometric Domain Shifts in Semantic Segmentation of Surgical RGB and Hyperspectral Images [67.66644395272075]
本稿では,幾何学的アウト・オブ・ディストリビューションデータに直面する場合の,最先端のセマンティックセマンティックセマンティクスモデルの最初の解析を行う。
本稿では, 汎用性を高めるために, 有機移植(Organ Transplantation)と呼ばれる拡張技術を提案する。
我々の拡張技術は、RGBデータに対して最大67%、HSIデータに対して90%のSOAモデル性能を改善し、実際のOODテストデータに対して、分配内パフォーマンスのレベルでのパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-27T19:13:15Z) - Training and Comparison of nnU-Net and DeepMedic Methods for
Autosegmentation of Pediatric Brain Tumors [0.08519384144663283]
ディープラーニングに基づく2つの3DセグメンテーションモデルであるDeepMedicとnnU-Netを比較した。
小児特異的に訓練されたnnU-Netモデルは、小児脳腫瘍の全腫瘍および亜領域のセグメンテーションにおいてDeepMedicよりも優れている。
論文 参考訳(メタデータ) (2024-01-16T14:44:06Z) - SPEEDNet: Salient Pyramidal Enhancement Encoder-Decoder Network for
Colonoscopy Images [2.825324306665133]
本稿では,大腸内視鏡画像中の病変を正確に分割する新しいアーキテクチャであるSPEEDNetを提案する。
DIPCブロックは、拡張された畳み込み層をピラミッド構造に結合し、特徴写像をコンパクトな空間に変換する。
EBHISegデータセットでは、SPEEDNetは以前の3つのネットワーク(UNet、FeedNet、AttesResDUNet)を上回っている。
論文 参考訳(メタデータ) (2023-12-02T13:03:08Z) - Semantic segmentation of surgical hyperspectral images under geometric
domain shifts [69.91792194237212]
本稿では、幾何学的アウト・オブ・ディストリビューション(OOD)データの存在下で、最先端のセマンティックセグメンテーションネットワークを初めて分析する。
有機移植(Organ transplantation)と呼ばれる専用の拡張技術により、一般化可能性にも対処する。
提案手法は,SOA DSCの最大67 % (RGB) と90% (HSI) を改善し,実際のOODテストデータ上での分配内性能と同等の性能を示す。
論文 参考訳(メタデータ) (2023-03-20T09:50:07Z) - CNN-based fully automatic wrist cartilage volume quantification in MR
Image [55.41644538483948]
追加の注意層を持つU-net畳み込みニューラルネットワークは、最高の手首軟骨分割性能を提供する。
非MRI法を用いて軟骨体積測定の誤差を独立に評価すべきである。
論文 参考訳(メタデータ) (2022-06-22T14:19:06Z) - Generalizing Few-Shot NAS with Gradient Matching [165.5690495295074]
One-Shotメソッドは、1つのスーパーネットをトレーニングし、ウェイトシェアリングを通じて検索空間内の全てのアーキテクチャのパフォーマンスを近似する。
Few-Shot NASは、One-Shotスーパーネットを複数のサブスーパーネットに分割することで、ウェイトシェアリングのレベルを下げる。
Few-Shotよりも優れており、派生したアーキテクチャの精度という点では、従来の同等の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2022-03-29T03:06:16Z) - Evolving Deep Convolutional Neural Network by Hybrid Sine-Cosine and
Extreme Learning Machine for Real-time COVID19 Diagnosis from X-Ray Images [0.5249805590164902]
ディープ・コンボリューショナル・ネットワーク(CNN)は、COVID-19陽性症例の診断に応用できるツールとみなすことができる。
本稿では,最後の完全接続層ではなく,ELM(Extreme Learning Machine)を用いることを提案する。
提案手法は、COVID-Xray-5kデータセットで98.83%の最終的な精度で比較ベンチマークを上回っている。
論文 参考訳(メタデータ) (2021-05-14T19:40:16Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - CovidDeep: SARS-CoV-2/COVID-19 Test Based on Wearable Medical Sensors
and Efficient Neural Networks [51.589769497681175]
新型コロナウイルス(SARS-CoV-2)がパンデミックを引き起こしている。
SARS-CoV-2の逆転写-ポリメラーゼ連鎖反応に基づく現在の試験体制は、試験要求に追いついていない。
我々は,効率的なDNNと市販のWMSを組み合わせたCovidDeepというフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-20T21:47:28Z) - A Novel and Reliable Deep Learning Web-Based Tool to Detect COVID-19
Infection from Chest CT-Scan [0.0]
コロナウイルスは すでに多くの国で 世界中に広がり 命を落としています
この実験では、746人の参加者を含む最大規模の公共胸部CTスキャンデータベースが使用された。
Densely Connected Convolutional Network(DenseNet)とNu-SVMを併用して、新型コロナウイルスと健康管理を区別した。
論文 参考訳(メタデータ) (2020-06-24T13:47:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。