論文の概要: MindGrab for BrainChop: Fast and Accurate Skull Stripping for Command Line and Browser
- arxiv url: http://arxiv.org/abs/2506.11860v1
- Date: Fri, 13 Jun 2025 15:09:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.841666
- Title: MindGrab for BrainChop: Fast and Accurate Skull Stripping for Command Line and Browser
- Title(参考訳): BrainChop用のMindGrab:コマンドラインとブラウザ用の高速かつ正確なスカルストリップ
- Authors: Armina Fani, Mike Doan, Isabelle Le, Alex Fedorov, Malte Hoffmann, Chris Rorden, Sergey Plis,
- Abstract要約: 我々はパラメータとメモリ効率の深い完全畳み込みモデルであるMindGrabを開発した。
MindGrabはSynthStripデータセットから得られた606個のマルチモーダル成人脳スキャン(T1, T2, DWI, MRA, PDw MRI, EPI, CT, PET)を用いて評価した。
MindGrabは標準偏差(SD)1.6で95.9のDiceスコアを達成し、古典的手法よりも優れていた。
- 参考スコア(独自算出の注目度): 0.5983020804545164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We developed MindGrab, a parameter- and memory-efficient deep fully-convolutional model for volumetric skull-stripping in head images of any modality. Its architecture, informed by a spectral interpretation of dilated convolutions, was trained exclusively on modality-agnostic synthetic data. MindGrab was evaluated on a retrospective dataset of 606 multimodal adult-brain scans (T1, T2, DWI, MRA, PDw MRI, EPI, CT, PET) sourced from the SynthStrip dataset. Performance was benchmarked against SynthStrip, ROBEX, and BET using Dice scores, with Wilcoxon signed-rank significance tests. MindGrab achieved a mean Dice score of 95.9 with standard deviation (SD) 1.6 across modalities, significantly outperforming classical methods (ROBEX: 89.1 SD 7.7, P < 0.05; BET: 85.2 SD 14.4, P < 0.05). Compared to SynthStrip (96.5 SD 1.1, P=0.0352), MindGrab delivered equivalent or superior performance in nearly half of the tested scenarios, with minor differences (<3% Dice) in the others. MindGrab utilized 95% fewer parameters (146,237 vs. 2,566,561) than SynthStrip. This efficiency yielded at least 2x faster inference, 50% lower memory usage on GPUs, and enabled exceptional performance (e.g., 10-30x speedup, and up to 30x memory reduction) and accessibility on a wider range of hardware, including systems without high-end GPUs. MindGrab delivers state-of-the-art accuracy with dramatically lower resource demands, supported in brainchop-cli (https://pypi.org/project/brainchop/) and at brainchop.org.
- Abstract(参考訳): 我々はパラメータとメモリ効率の深い完全畳み込みモデルであるMindGrabを開発した。
その構造は、拡張畳み込みのスペクトル解釈によって知らされ、モダリティに依存しない合成データにのみ訓練された。
MindGrabはSynthStripデータセットから得られた606個のマルチモーダル成人脳スキャン(T1, T2, DWI, MRA, PDw MRI, EPI, CT, PET)を用いて評価した。
性能はSynthStrip、ROBX、BETに対してDiceスコアを使用してベンチマークされ、ウィルコクソンの署名ランクの重要度テストが実施された。
MindGrabは標準偏差(SD)1.6で95.9のDiceスコアを達成し、古典的手法(ROBEX: 89.1 SD 7.7, P < 0.05; BET: 85.2 SD 14.4, P < 0.05)を上回った。
SynthStrip (96.5 SD 1.1, P=0.0352)と比較すると、MindGrabはテストシナリオのほぼ半分で同等または優れた性能を示し、その他のシナリオでは小さな差(3% Dice)があった。
MindGrabはSynthStripよりも95%少ないパラメータ(146,237 vs. 2,566,561)を使っている。
この効率は、GPU上での推論が少なくとも2倍速く、メモリ使用量が50%減少し、例外的な性能(例えば、10-30倍のスピードアップと最大30倍のメモリ削減)と、ハイエンドGPUのないシステムを含む幅広いハードウェアへのアクセシビリティを実現した。
MindGrabは、Brainchop-cli(https://pypi.org/project/brainchop/)およびBrainchop.orgでサポートされている、劇的に低いリソース要求で最先端の精度を提供する。
関連論文リスト
- Speedy MASt3R [68.47052557089631]
MASt3Rは、DUSt3Rを活用して高速な相互マッチング方式を導入することで、画像マッチングを3Dタスクとして再定義する。
高速MASt3Rは、精度を犠牲にすることなく、推論時間(画像ペアあたり198msから91ms)を54%削減する。
この進歩により、リアルタイムな3D理解が可能になり、複合現実ナビゲーションや大規模3Dシーン再構築といったアプリケーションに恩恵をもたらす。
論文 参考訳(メタデータ) (2025-03-13T03:56:22Z) - MedSegMamba: 3D CNN-Mamba Hybrid Architecture for Brain Segmentation [15.514511820130474]
我々は皮質下脳分割のための3DパッチベースのハイブリッドCNN-Mambaモデルを開発した。
モデルの性能をいくつかのベンチマークで検証した。
論文 参考訳(メタデータ) (2024-09-12T02:19:19Z) - Deepbet: Fast brain extraction of T1-weighted MRI using Convolutional
Neural Networks [0.40125518029941076]
Deepbetは、Deepbetと呼ばれる高速で高精度な脳抽出ツールを構築する。
Deepbetは、2段階の予測プロセスで、現代的なUNetアーキテクチャであるLinkNetを使用している。
モデルは現在の方法と比較して脳の抽出を10倍に加速する。
論文 参考訳(メタデータ) (2023-08-14T08:39:09Z) - Q-ViT: Accurate and Fully Quantized Low-bit Vision Transformer [56.87383229709899]
我々は、完全量子化視覚変換器(Q-ViT)のための情報修正モジュール(IRM)と分配誘導蒸留法を開発した。
我々の手法は、先行技術よりもはるかに優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-13T04:00:29Z) - MCUNetV2: Memory-Efficient Patch-based Inference for Tiny Deep Learning [72.80896338009579]
メモリボトルネックは畳み込みニューラルネットワーク(CNN)の設計における不均衡なメモリ分布に起因する。
本稿では,ピークメモリを大幅に削減するパッチ・バイ・パッチ・推論スケジューリングを提案する。
ニューラルアーキテクチャサーチによるプロセスを自動化し、ニューラルアーキテクチャと推論スケジューリングを共同で最適化し、MCUNetV2に導いた。
論文 参考訳(メタデータ) (2021-10-28T17:58:45Z) - Pixel Difference Networks for Efficient Edge Detection [71.03915957914532]
本稿では,Pixel Difference Network (PiDiNet) という軽量かつ効率的なエッジ検出アーキテクチャを提案する。
BSDS500、NYUD、Multicueのデータセットに関する大規模な実験が、その効果を示すために提供されている。
0.1M未満のパラメータを持つPiDiNetのより高速なバージョンは、200FPSのアーティファクトで同等のパフォーマンスを達成できる。
論文 参考訳(メタデータ) (2021-08-16T10:42:59Z) - DR-Unet104 for Multimodal MRI brain tumor segmentation [7.786297008452384]
脳MRIにおける病変分割のために,104層の畳み込み層(DR-Unet104)を有する2次元奥行きUnetを提案する。
Unetエンコーダに'bottleneck'残ブロックを追加し、各畳み込みブロックスタックの後にドロップアウトを追加するなど、Unetアーキテクチャに複数の追加を加えています。
コンボリューションは2次元のコンボリューションしかなく,低消費電力コンピュータで使用可能なメリットも備えた,競争力のある病変分割アーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-11-04T01:24:26Z) - TapLab: A Fast Framework for Semantic Video Segmentation Tapping into
Compressed-Domain Knowledge [161.4188504786512]
リアルタイムセマンティックビデオセグメンテーションは、推論速度の厳格な要件のために難しい課題である。
最近のアプローチは主に、高効率のモデルサイズ削減に多大な努力を払っている。
我々は、圧縮されたドメインからリソースを取り込み、TapLabと呼ばれるシンプルで効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T08:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。