論文の概要: Skull stripping with purely synthetic data
- arxiv url: http://arxiv.org/abs/2505.07159v1
- Date: Mon, 12 May 2025 00:36:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.229322
- Title: Skull stripping with purely synthetic data
- Title(参考訳): 純粋な合成データによるスカルストリップ
- Authors: Jong Sung Park, Juhyung Ha, Siddhesh Thakur, Alexandra Badea, Spyridon Bakas, Eleftherios Garyfallidis,
- Abstract要約: PUMBAは、実際の脳画像やラベルなしで脳抽出のモデルを訓練する戦略である。
以上の結果から, 実画像や解剖学的先行例がなくても, マルチモーダル, マルチモーダル, 病理学的ケースにおいて, 同等の精度を達成できることが示唆された。
- 参考スコア(独自算出の注目度): 38.57339817792633
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While many skull stripping algorithms have been developed for multi-modal and multi-species cases, there is still a lack of a fundamentally generalizable approach. We present PUMBA(PUrely synthetic Multimodal/species invariant Brain extrAction), a strategy to train a model for brain extraction with no real brain images or labels. Our results show that even without any real images or anatomical priors, the model achieves comparable accuracy in multi-modal, multi-species and pathological cases. This work presents a new direction of research for any generalizable medical image segmentation task.
- Abstract(参考訳): 多くの頭蓋骨切断アルゴリズムは、多種・多種のケースで開発されているが、しかしながら、根本的な一般化可能なアプローチが欠如している。
PUMBA(PUrely synthetic Multimodal/species invariant Brain ExtrAction)は,脳の実際の画像やラベルを使わずに,脳の抽出モデルを訓練するための戦略である。
以上の結果から, 実画像や解剖学的先行例がなくても, マルチモーダル, マルチモーダル, 病理学的ケースにおいて, 同等の精度を達成できることが示唆された。
本研究は, 汎用的な医用画像分割作業のための新たな研究方向を示す。
関連論文リスト
- A Foundation Model for Brain Lesion Segmentation with Mixture of Modality Experts [3.208907282505264]
本稿では3次元脳病変分割のための普遍的基礎モデルを提案する。
我々は,様々な画像モダリティに対応する複数のエキスパートネットワークを備えた,新しいMixture of Modality Experts (MoME) フレームワークを定式化する。
我々のモデルは最先端のユニバーサルモデルより優れており、目に見えないデータセットに有望な一般化を提供する。
論文 参考訳(メタデータ) (2024-05-16T16:49:20Z) - Retinotopy Inspired Brain Encoding Model and the All-for-One Training
Recipe [14.943061215875655]
3つの画像モダリティにまたがる5つの公開データセットから100万以上のデータポイントを用いて、脳エンコーディングモデルを事前訓練した。
本稿では、一般的に使用される視覚バックボーンモデルのドロップイン置換として、事前学習モデルの有効性を示す。
論文 参考訳(メタデータ) (2023-07-26T08:06:40Z) - Multimodal foundation models are better simulators of the human brain [65.10501322822881]
1500万の画像テキストペアを事前訓練した,新たに設計されたマルチモーダル基礎モデルを提案する。
視覚的エンコーダも言語的エンコーダもマルチモーダルで訓練され,脳に近いことが判明した。
論文 参考訳(メタデータ) (2022-08-17T12:36:26Z) - SynthStrip: Skull-Stripping for Any Brain Image [7.846209440615028]
我々は,学習に基づく迅速な脳抽出ツールであるSynthStripを紹介した。
解剖学的セグメンテーションを活用することで、SynthStripは、解剖学、強度分布、および医療画像の現実的な範囲をはるかに超える人工的なトレーニングデータセットを生成する。
一般的な頭蓋骨切断ベースラインよりも精度が大幅に向上した。
論文 参考訳(メタデータ) (2022-03-18T14:08:20Z) - Cross-Modality Neuroimage Synthesis: A Survey [71.27193056354741]
マルチモダリティイメージングは、疾患の診断を改善し、解剖学的特性を持つ組織における相違を明らかにする。
完全な整列とペアの多モードニューロイメージングデータの存在は、脳研究においてその効果を証明している。
もう一つの解決策は、教師なしまたは弱教師なしの学習方法を探究し、欠落した神経画像データを合成することである。
論文 参考訳(メタデータ) (2022-02-14T19:29:08Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Representation Disentanglement for Multi-modal MR Analysis [15.498244253687337]
近年の研究では、マルチモーダルディープラーニング分析は、画像から解剖学的(形状)およびモダリティ(外観)表現を明示的に切り離すことから恩恵を受けることができることが示唆されている。
対象とモダリティをまたいだ表現の類似性関係を正規化するマージン損失を提案する。
頑健なトレーニングを実現するため,全てのモダリティの画像を符号化する単一モデルの設計のために条件付き畳み込みを導入する。
論文 参考訳(メタデータ) (2021-02-23T02:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。