論文の概要: RESECT-SEG: Open access annotations of intra-operative brain tumor
ultrasound images
- arxiv url: http://arxiv.org/abs/2207.07494v1
- Date: Wed, 13 Jul 2022 05:53:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-18 14:37:01.265927
- Title: RESECT-SEG: Open access annotations of intra-operative brain tumor
ultrasound images
- Title(参考訳): RESECT-SEG:術中脳腫瘍画像のオープンアクセスアノテーション
- Authors: Bahareh Behboodi, Francois-Xavier Carton, Matthieu Chabanas, Sandrine
De Ribaupierre, Ole Solheim, Bodil K. R. Munkvold, Hassan Rivaz, Yiming Xiao,
Ingerid Reinertsen
- Abstract要約: 手術を施行した23例のMRとUS(iUS)画像で構成された。
提案データセットは、腫瘍組織とiUS画像の空洞アノテーションを含む。
これらのラベルは、ディープラーニングアプローチのトレーニングにも使用することができる。
- 参考スコア(独自算出の注目度): 2.8712862578745018
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Purpose: Registration and segmentation of magnetic resonance (MR) and
ultrasound (US) images play an essential role in surgical planning and
resection of brain tumors. However, validating these techniques is challenging
due to the scarcity of publicly accessible sources with high-quality ground
truth information. To this end, we propose a unique annotation dataset of tumor
tissues and resection cavities from the previously published RESECT dataset
(Xiao et al. 2017) to encourage a more rigorous assessments of image processing
techniques. Acquisition and validation methods: The RESECT database consists of
MR and intraoperative US (iUS) images of 23 patients who underwent resection
surgeries. The proposed dataset contains tumor tissues and resection cavity
annotations of the iUS images. The quality of annotations were validated by two
highly experienced neurosurgeons through several assessment criteria. Data
format and availability: Annotations of tumor tissues and resection cavities
are provided in 3D NIFTI formats. Both sets of annotations are accessible
online in the \url{https://osf.io/6y4db}. Discussion and potential
applications: The proposed database includes tumor tissue and resection cavity
annotations from real-world clinical ultrasound brain images to evaluate
segmentation and registration methods. These labels could also be used to train
deep learning approaches. Eventually, this dataset should further improve the
quality of image guidance in neurosurgery.
- Abstract(参考訳): 目的: 磁気共鳴(MR)と超音波(US)画像の登録とセグメンテーションは, 脳腫瘍の手術計画と切除において重要な役割を担っている。
しかし,これらの手法の検証は,高品質な基盤真理情報を持つ公開資料が不足しているため困難である。
そこで本研究では,これまで公表したRESECTデータセット(Xiao et al. 2017)から腫瘍組織と切除腔のユニークなアノテーションデータセットを提案し,画像処理技術のより厳密な評価を奨励する。
取得と検証方法: 外科手術を受けた23例のMR画像と術中US画像からなるRESECTデータベース。
提案データセットは、腫瘍組織とiUS画像の空洞アノテーションを含む。
アノテーションの品質は、いくつかの評価基準によって2つの高度神経外科医によって検証された。
データフォーマットと可用性:腫瘍組織と切除腔のアノテーションは3D NIFTIフォーマットで提供される。
両方のアノテーションセットは、 \url{https://osf.io/6y4db} でオンラインでアクセスできる。
検討と潜在的な応用:本データベースは腫瘍組織と実際の臨床用超音波脳画像からの空洞アノテーションを含んで,セグメンテーションと登録方法を評価する。
これらのラベルは、ディープラーニングアプローチのトレーニングにも使用できる。
最終的には、このデータセットは神経外科における画像誘導の質をさらに向上させるだろう。
関連論文リスト
- Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - Lumbar Spine Tumor Segmentation and Localization in T2 MRI Images Using AI [2.9746083684997418]
本研究は, 脊椎腫瘍の領域分割と局所化をAIアプローチで自動化することを目的とした, 新たなデータ拡張手法を提案する。
畳み込みニューラルネットワーク(CNN)アーキテクチャは、腫瘍の分類に用いられている。3次元の椎骨分割とラベル付け技術は、腰椎の腫瘍の正確な位置を特定するのに役立つ。
その結果, 腫瘍分節の99%の精度, 腫瘍分類の98%の精度, 腫瘍局在の99%の精度が得られた。
論文 参考訳(メタデータ) (2024-05-07T05:55:50Z) - Brain Tumor Segmentation from MRI Images using Deep Learning Techniques [3.1498833540989413]
パブリックMRIデータセットは、脳腫瘍、髄膜腫、グリオーマ、下垂体腫瘍の3つの変種を持つ233人の患者の3064 TI強調画像を含む。
データセットファイルは、よく知られた画像セグメンテーション深層学習モデルの実装とトレーニングを利用する方法論に順応する前に、変換され、前処理される。
実験の結果,Adamを用いた再帰的残差U-Netは平均差0.8665に到達し,他の最先端ディープラーニングモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-04-29T13:33:21Z) - Brain tumor multi classification and segmentation in MRI images using
deep learning [3.1248717814228923]
この分類モデルはEfficientNetB1アーキテクチャに基づいており、画像は髄膜腫、グリオーマ、下垂体腺腫、腫瘍の4つのクラスに分類するよう訓練されている。
セグメンテーションモデルはU-Netアーキテクチャに基づいており、MRI画像から腫瘍を正確にセグメンテーションするように訓練されている。
論文 参考訳(メタデータ) (2023-04-20T01:32:55Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - Deep Learning models for benign and malign Ocular Tumor Growth
Estimation [3.1558405181807574]
臨床医はしばしば、医用画像データに適した画像処理アルゴリズムを選択する際に問題に直面している。
ここでは、適切なモデルを選択するための戦略を示す。
論文 参考訳(メタデータ) (2021-07-09T05:40:25Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - ESTAN: Enhanced Small Tumor-Aware Network for Breast Ultrasound Image
Segmentation [0.0]
本稿では,乳腺腫瘍を正確に分類するための新しいディープニューラルネットワークアーキテクチャであるESTAN(Enhanced Small tumor-Aware Network)を提案する。
ESTANは、2つのエンコーダを導入し、異なるスケールで画像コンテキスト情報を抽出し、フューズする。
論文 参考訳(メタデータ) (2020-09-27T16:42:59Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z) - Stan: Small tumor-aware network for breast ultrasound image segmentation [68.8204255655161]
本研究では,小腫瘍認識ネットワーク(Small tumor-Aware Network,STAN)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
提案手法は, 乳腺腫瘍の分節化における最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2020-02-03T22:25:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。