論文の概要: Efficient Quantization-Aware Training on Segment Anything Model in Medical Images and Its Deployment
- arxiv url: http://arxiv.org/abs/2412.11186v1
- Date: Sun, 15 Dec 2024 13:35:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 14:00:50.175470
- Title: Efficient Quantization-Aware Training on Segment Anything Model in Medical Images and Its Deployment
- Title(参考訳): 医用画像のセグメンテーションモデルに基づく効率的な量子化学習とその展開
- Authors: Haisheng Lu, Yujie Fu, Fan Zhang, Le Zhang,
- Abstract要約: CVPR 2024 MedSAM on Laptop Challengeは、精度と処理速度の最適なバランスを見つけるために設立された。
医用画像のセグメンション・アプライシング・モデル(Segment Anything Model)を効率的に定量化するための量子化対応訓練パイプラインを提案する。
実験結果から,本手法は精度を保ちながら,ベースライン上での処理速度を大幅に向上することを確認した。
- 参考スコア(独自算出の注目度): 5.898339617170265
- License:
- Abstract: Medical image segmentation is a critical component of clinical practice, and the state-of-the-art MedSAM model has significantly advanced this field. Nevertheless, critiques highlight that MedSAM demands substantial computational resources during inference. To address this issue, the CVPR 2024 MedSAM on Laptop Challenge was established to find an optimal balance between accuracy and processing speed. In this paper, we introduce a quantization-aware training pipeline designed to efficiently quantize the Segment Anything Model for medical images and deploy it using the OpenVINO inference engine. This pipeline optimizes both training time and disk storage. Our experimental results confirm that this approach considerably enhances processing speed over the baseline, while still achieving an acceptable accuracy level. The training script, inference script, and quantized model are publicly accessible at https://github.com/AVC2-UESTC/QMedSAM.
- Abstract(参考訳): 医用画像のセグメンテーションは臨床実践の重要な要素であり,最先端のMedSAMモデルはこの分野を著しく進歩させてきた。
それでも批判は、MedSAMは推論中にかなりの計算資源を必要とすることを強調している。
この問題に対処するため、CVPR 2024 MedSAM on Laptop Challengeが確立され、精度と処理速度の最適なバランスが得られた。
本稿では,医療画像のセグメンツ・ア・シング・モデル(Segment Anything Model)を効率よく定量化し,OpenVINO推論エンジンを用いてデプロイする量子化対応トレーニングパイプラインを提案する。
このパイプラインは、トレーニング時間とディスクストレージの両方を最適化する。
実験結果から,本手法は精度を保ちながら,ベースライン上での処理速度を大幅に向上することを確認した。
トレーニングスクリプト、推論スクリプト、量子化モデルはhttps://github.com/AVC2-UESTC/QMedSAMで公開されている。
関連論文リスト
- Exploiting the Segment Anything Model (SAM) for Lung Segmentation in Chest X-ray Images [0.8192907805418583]
Segment Anything Model (SAM) は、ある画像内の個々のオブジェクトを意味論的解釈によって識別し、分離するために設計された野心的なツールである。
何人かの研究者が、この領域のパフォーマンスを評価するために、このモデルを医療画像上でテストし始めた。
本研究は胸部X線画像の評価と研究にこの新技術を用いることを提案する。
論文 参考訳(メタデータ) (2024-11-05T12:54:01Z) - MAPUNetR: A Hybrid Vision Transformer and U-Net Architecture for Efficient and Interpretable Medical Image Segmentation [0.0]
本稿では,医用画像セグメンテーションのためのU-Netフレームワークを用いて,トランスフォーマーモデルの強度を相乗化する新しいアーキテクチャMAPUNetRを紹介する。
本モデルでは,分解能保存課題に対処し,セグメンテーションされた領域に着目したアテンションマップを導入し,精度と解釈可能性を高める。
臨床実習における医用画像セグメンテーションの強力なツールとして,本モデルが安定した性能と可能性を維持していることを示す。
論文 参考訳(メタデータ) (2024-10-29T16:52:57Z) - Enhancing pretraining efficiency for medical image segmentation via transferability metrics [0.0]
医用画像のセグメンテーションタスクでは、ラベル付きトレーニングデータの不足が大きな課題となっている。
本稿では,事前学習したモデルが対象データをいかに頑健に表現できるかを計測する,対照的な学習に基づく新しい伝達可能性指標を提案する。
論文 参考訳(メタデータ) (2024-10-24T12:11:52Z) - LoGra-Med: Long Context Multi-Graph Alignment for Medical Vision-Language Model [55.80651780294357]
最新の医療用マルチモーダル大規模言語モデル(med-MLLM)は、事前訓練において命令追従データを活用する。
LoGra-Medは新しいマルチグラフアライメントアルゴリズムで、画像のモダリティ、会話ベースの記述、拡張キャプション間でのトリプルト相関を強制する。
以上の結果から,LoGra-Medは医療用VQAの600K画像テキスト対に対してLAVA-Medと一致し,その10%でトレーニングした場合に有意に優れていた。
論文 参考訳(メタデータ) (2024-10-03T15:52:03Z) - Swin-LiteMedSAM: A Lightweight Box-Based Segment Anything Model for Large-Scale Medical Image Datasets [0.6827423171182151]
我々はLiteMedSAMの新しい変種であるSwin-LiteMedSAMを紹介する。
このモデルは、小さなSwin Transformerをイメージエンコーダとして統合し、複数の種類のプロンプトを組み込み、イメージエンコーダとマスクデコーダの間のスキップ接続を確立する。
textitSegment Anything in Medical Images on Laptop Challenge (CVPR 2024)では,セグメンテーション性能と速度のバランスが良好である。
論文 参考訳(メタデータ) (2024-09-11T10:35:42Z) - SAM-UNet:Enhancing Zero-Shot Segmentation of SAM for Universal Medical Images [40.4422523499489]
Segment Anything Model (SAM) は、様々な自然画像のセグメンテーションタスクにおいて印象的な性能を示した。
本稿では,U-Netを元のSAMに組み込んだ新たな基盤モデルSAMUNetを提案する。
我々は,SA-Med2D-16MでSAM-UNetをトレーニングした。
論文 参考訳(メタデータ) (2024-08-19T11:01:00Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - MedSegDiff-V2: Diffusion based Medical Image Segmentation with
Transformer [53.575573940055335]
我々は、MedSegDiff-V2と呼ばれるトランスフォーマーベースの拡散フレームワークを提案する。
画像の異なる20種類の画像分割作業において,その有効性を検証する。
論文 参考訳(メタデータ) (2023-01-19T03:42:36Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。