論文の概要: MixMicrobleedNet: segmentation of cerebral microbleeds using nnU-Net
- arxiv url: http://arxiv.org/abs/2108.01389v1
- Date: Tue, 3 Aug 2021 09:52:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-04 18:23:36.553632
- Title: MixMicrobleedNet: segmentation of cerebral microbleeds using nnU-Net
- Title(参考訳): MixMicrobleedNet: nnU-Netを用いた脳微小血腫のセグメンテーション
- Authors: Hugo J. Kuijf
- Abstract要約: 脳微小血腫は、MRI(MRI)で視認できる小さな低濃度病変であり、勾配エコー、T2*、感受性強調画像(SWI)を呈する。
本研究では,マイクロブラインドセグメンテーションのための完全自動化ツールとして,nnU-Netの利用について検討する。
- 参考スコア(独自算出の注目度): 0.10829694003408498
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cerebral microbleeds are small hypointense lesions visible on magnetic
resonance imaging (MRI) with gradient echo, T2*, or susceptibility weighted
(SWI) imaging. Assessment of cerebral microbleeds is mostly performed by visual
inspection. The past decade has seen the rise of semi-automatic tools to assist
with rating and more recently fully automatic tools for microbleed detection.
In this work, we explore the use of nnU-Net as a fully automated tool for
microbleed segmentation. Data was provided by the ``Where is VALDO?'' challenge
of MICCAI 2021. The final method consists of nnU-Net in the ``3D full
resolution U-Net'' configuration trained on all data (fold = `all'). No
post-processing options of nnU-Net were used. Self-evaluation on the training
data showed an estimated Dice of 0.80, false discovery rate of 0.16, and false
negative rate of 0.15. Final evaluation on the test set of the VALDO challenge
is pending. Visual inspection of the results showed that most of the reported
false positives could be an actual microbleed that might have been missed
during visual rating. Source code is available at:
https://github.com/hjkuijf/MixMicrobleedNet . The docker container
hjkuijf/mixmicrobleednet can be pulled from
https://hub.docker.com/r/hjkuijf/mixmicrobleednet .
- Abstract(参考訳): 脳微小血腫は、MRI(MRI)で視認できる小さな低濃度病変であり、勾配エコー、T2*、感受性強調画像(SWI)を呈する。
脳微小出血の評価は主に視覚検査によって行われる。
過去10年間、評価を助けるセミオートマチックなツールが登場し、最近ではマイクロ出血検出のための完全に自動化されたツールが登場した。
本研究では,マイクロブラインドセグメンテーションのための完全自動化ツールとして,nnU-Netの利用について検討する。
データは ``where is valdo''' によって提供された。
MICCAI 2021の挑戦。
最後のメソッドは、すべてのデータ(fold = `all')でトレーニングされた ``3D full resolution U-Net'' 構成の nnU-Net で構成されている。
nnu-netのポストプロセッシングオプションは使用されなかった。
トレーニングデータに対する自己評価の結果,推定サイクリングは0.80,偽発見率は0.16,偽陰性率は0.15であった。
VALDOチャレンジのテストセットに関する最終評価が保留されています。
結果の視覚検査では、報告された偽陽性のほとんどは、視覚評価中に見逃されたかもしれない実際の微血である可能性が示された。
ソースコードはhttps://github.com/hjkuijf/mixmicrobleednet。
dockerコンテナhjkuijf/mixmicrobleednetはhttps://hub.docker.com/r/hjkuijf/mixmicrobleednetからプルできる。
関連論文リスト
- Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - CUDA: Convolution-based Unlearnable Datasets [77.70422525613084]
現代のディープラーニングモデルの大規模なトレーニングは、Web上の公開データに大きく依存している。
最近の研究は、小さくて特殊なノイズを加えることによって、ディープラーニングモデルのためのデータを作ることを目的としている。
これらの手法は、敵の訓練(AT)に対して脆弱であり、または/または計算的に重い。
論文 参考訳(メタデータ) (2023-03-07T22:57:23Z) - N2V2 -- Fixing Noise2Void Checkerboard Artifacts with Modified Sampling
Strategies and a Tweaked Network Architecture [66.03918859810022]
我々は,バニラN2V装置に2つの改良を加えて,不要なアーティファクトを大幅に削減する。
我々は、顕微鏡および自然画像データに基づいて、その修正を検証した。
論文 参考訳(メタデータ) (2022-11-15T21:12:09Z) - Learning from few examples: Classifying sex from retinal images via deep
learning [3.9146761527401424]
基礎画像から患者の性別を分類するために,小データセット上でのDLの性能について紹介する。
約2500基の画像を用いて開発した本モデルでは,最大0.72点のAUCスコアが得られた。
これは、データセットサイズが1000倍近く減少しているにもかかわらず、わずか25%のパフォーマンス低下に相当する。
論文 参考訳(メタデータ) (2022-07-20T02:47:29Z) - Implementation of a Modified U-Net for Medical Image Segmentation on
Edge Devices [0.5735035463793008]
本稿では,Intel Movidius Neural Compute Stick 2 (NCS-2) による医用画像のセグメンテーションのための改良U-Netの実装について述べる。
脳MRIのBraTsデータセット、心臓MRIデータセット、およびZNSDBデータセットである。
論文 参考訳(メタデータ) (2022-06-06T05:25:19Z) - Adversarial Distortion Learning for Medical Image Denoising [43.53912137735094]
本稿では,2次元および3次元(2D/3D)のバイオメディカル画像データから,新たな逆歪み学習法を提案する。
提案されたADLは2つの自動エンコーダで構成されている。
デノイザとディスクリミネータはどちらも、Efficient-Unetと呼ばれる自動エンコーダをベースとしている。
論文 参考訳(メタデータ) (2022-04-29T13:47:39Z) - Optimized U-Net for Brain Tumor Segmentation [62.997667081978825]
そこで我々はBraTS21 Challengeにおいて,脳腫瘍分割タスクのための最適化されたU-Netアーキテクチャを提案する。
我々の解は挑戦検証フェーズの勝者であり、正規化統計スコアは0.267、平均Diceスコアは0.8855であった。
論文 参考訳(メタデータ) (2021-10-07T11:44:09Z) - MicroNet: Improving Image Recognition with Extremely Low FLOPs [82.54764264255505]
疎結合性と動的アクティベーション関数の2つの要因が,精度向上に有効であることがわかった。
非線形性を改善するために動的シフトマックスと呼ばれる新しい動的アクティベーション関数を提案する。
私たちはMicroNetというネットワークのファミリに到達し、低FLOP体制下での最先端技術に対して大きなパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2021-08-12T17:59:41Z) - MixMicrobleed: Multi-stage detection and segmentation of cerebral
microbleeds [0.08156494881838945]
脳微小出血は小さく、暗く、丸い病変であり、T2*強調MRIで観察できる。
マイクロブロード検出とセグメンテーションの両方に対するマルチステージアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-05T09:41:08Z) - CVR-Net: A deep convolutional neural network for coronavirus recognition
from chest radiography images [1.869097450593631]
我々は,CTやX線画像からウイルスを自動認識する,CVR-Netと呼ばれる堅牢なCNNベースのネットワークを提案する。
提案したCVR-Netを3つの異なるデータセットでトレーニングし、テストします。
本モデルでは,タスク1からタスク5に対して,総F1スコアと精度が0.997と0.998,0.963と0.964,0.816と0.820,0.961と0.961,0.780と0.780となる。
論文 参考訳(メタデータ) (2020-07-21T18:21:29Z) - Collaborative Boundary-aware Context Encoding Networks for Error Map
Prediction [65.44752447868626]
本稿では,AEP-Net と呼ばれる協調的コンテキスト符号化ネットワークを提案する。
具体的には、画像とマスクのより優れた特徴融合のための協調的な特徴変換分岐と、エラー領域の正確な局所化を提案する。
AEP-Netはエラー予測タスクの平均DSCが0.8358,0.8164であり、ピアソン相関係数が0.9873である。
論文 参考訳(メタデータ) (2020-06-25T12:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。