論文の概要: QuantU-Net: Efficient Wearable Medical Imaging Using Bitwidth as a Trainable Parameter
- arxiv url: http://arxiv.org/abs/2503.08719v1
- Date: Mon, 10 Mar 2025 16:25:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:36:58.649300
- Title: QuantU-Net: Efficient Wearable Medical Imaging Using Bitwidth as a Trainable Parameter
- Title(参考訳): QuantU-Net:bitwidthをトレーニング可能なパラメータとして用いた効率的なウェアラブル医療画像
- Authors: Christiaan Boerkamp, Akhil John Thomas,
- Abstract要約: 低消費電力デバイスへの効率的な展開に最適化された量子化されたU-NetであるQuantu-Netを紹介する。
このモデルは、約8倍のサイズの縮小を実現し、ウェアラブル医療機器のリアルタイム応用に適している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Medical image segmentation, particularly tumor segmentation, is a critical task in medical imaging, with U-Net being a widely adopted convolutional neural network (CNN) architecture for this purpose. However, U-Net's high computational and memory requirements pose challenges for deployment on resource-constrained devices such as wearable medical systems. This paper addresses these challenges by introducing QuantU-Net, a quantized version of U-Net optimized for efficient deployment on low-power devices like Field-Programmable Gate Arrays (FPGAs). Using Brevitas, a PyTorch library for quantization-aware training, we quantize the U-Net model, reducing its precision to an average of 4.24 bits while maintaining a validation accuracy of 94.25%, only 1.89% lower than the floating-point baseline. The quantized model achieves an approximately 8x reduction in size, making it suitable for real-time applications in wearable medical devices. We employ a custom loss function that combines Binary Cross-Entropy (BCE) Loss, Dice Loss, and a bitwidth loss function to optimize both segmentation accuracy and the size of the model. Using this custom loss function, we have significantly reduced the training time required to find an optimal combination of bitwidth and accuracy from a hypothetical 6^23 number of training sessions to a single training session. The model's usage of integer arithmetic highlights its potential for deployment on FPGAs and other designated AI accelerator hardware. This work advances the field of medical image segmentation by enabling the deployment of deep learning models on resource-constrained devices, paving the way for real-time, low-power diagnostic solutions in wearable healthcare applications.
- Abstract(参考訳): 医用画像セグメンテーション、特に腫瘍セグメンテーションは、医用画像において重要な課題であり、U-Netはこの目的のために広く採用されている畳み込みニューラルネットワーク(CNN)アーキテクチャである。
しかし、U-Netの高い計算とメモリ要求は、ウェアラブル医療システムのようなリソース制限されたデバイスへの展開に困難をもたらす。
本稿では,FPGA(Field-Programmable Gate Arrays)などの低消費電力デバイスへの効率的な展開に最適化されたU-Netの量子化バージョンであるQuantu-Netを導入することで,これらの課題に対処する。
量子化学習のためのPyTorchライブラリであるBrevitasを用いて、U-Netモデルを量子化し、その精度を平均4.24ビットに削減し、検証精度は94.25%、浮動小数点ベースラインよりも1.89%低い。
量子化モデルは、約8倍のサイズの縮小を実現し、ウェアラブル医療機器のリアルタイム応用に適している。
分割精度とモデルサイズの両方を最適化するために、バイナリクロスエントロピー(BCE)ロス(Dice Loss)とビット幅ロス関数(bitwidth Loss)を組み合わせたカスタムロス関数を用いる。
このカスタム損失関数を用いて、ビット幅と精度の最適な組み合わせを見つけるのに必要なトレーニング時間を、仮説6^23のトレーニングセッションから1つのトレーニングセッションへと大幅に短縮した。
このモデルの整数演算の使用は、FPGAや他の指定されたAIアクセラレータハードウェアへのデプロイの可能性を強調している。
この研究は、リソース制約されたデバイスにディープラーニングモデルをデプロイし、ウェアラブルヘルスケアアプリケーションにおけるリアルタイムで低消費電力の診断ソリューションを実現することによって、医療画像セグメンテーションの分野を前進させる。
関連論文リスト
- Post-Training Quantization for 3D Medical Image Segmentation: A Practical Study on Real Inference Engines [13.398758600007188]
推論中に低い演算をシミュレートする「フェイク量子化」では、実際のモデルサイズを減らしたり、現実の速度を向上したりしない。
PTQ(Post-training Quantization)フレームワークは、最先端(SOTA)の医用セグメンテーションモデル上で、真の8ビット量子化を実現している。
論文 参考訳(メタデータ) (2025-01-28T23:29:40Z) - Compressing Recurrent Neural Networks for FPGA-accelerated Implementation in Fluorescence Lifetime Imaging [3.502427552446068]
ディープラーニングモデルはリアルタイム推論を可能にするが、複雑なアーキテクチャと大規模な行列演算のために計算的に要求される。
これにより、フィールドプログラマブルゲートアレイ(FPGA)ベースのカメラハードウェアの直接実装に不適なDLモデルが得られる。
本研究では,FLI時系列データ処理に適したリカレントニューラルネットワーク(RNN)の圧縮に着目し,資源制約付きFPGAボードへの展開を実現する。
論文 参考訳(メタデータ) (2024-10-01T17:23:26Z) - Synaptic metaplasticity with multi-level memristive devices [1.5598974049838272]
推論とトレーニングの両方において,メタ塑性を実現するためのメムリスタベースのハードウェアソリューションを提案する。
MNISTとFashion-MNISTの連続トレーニングにおいて,2層パーセプトロンの精度は97%,86%であった。
我々のアーキテクチャは、mmristorの制限された耐久性と互換性があり、メモリは15倍削減されている。
論文 参考訳(メタデータ) (2023-06-21T09:40:25Z) - FxP-QNet: A Post-Training Quantizer for the Design of Mixed
Low-Precision DNNs with Dynamic Fixed-Point Representation [2.4149105714758545]
我々は、ディープニューラルネットワーク(FxP-QNet)の固定点量子化器(FixP-QNet)と呼ばれる新しいフレームワークを提案する。
FxP-QNetは、ネットワーク精度と低精度要求との間のトレードオフに基づいて、各レイヤのデータ構造ごとに量子化レベルを適用する。
その結果、FxP-QNet量子化されたAlexNet、VGG-16、ResNet-18は、全精度のメモリ要求を0.95%未満の7.16x、10.36x、6.44x、1.99%削減した。
論文 参考訳(メタデータ) (2022-03-22T23:01:43Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - OMPQ: Orthogonal Mixed Precision Quantization [64.59700856607017]
混合精度量子化は、ハードウェアの多重ビット幅演算を利用して、ネットワーク量子化の全ポテンシャルを解き放つ。
本稿では、整数プログラミングの損失と高い相関関係にあるネットワーク性の概念であるプロキシメトリックを最適化することを提案する。
このアプローチは、量子化精度にほとんど妥協することなく、検索時間と必要なデータ量を桁違いに削減する。
論文 参考訳(メタデータ) (2021-09-16T10:59:33Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Leveraging Automated Mixed-Low-Precision Quantization for tiny edge
microcontrollers [76.30674794049293]
本稿では、HAQフレームワークに基づく自動混合精度量子化フローを提案するが、MCUデバイスのメモリおよび計算特性に特化している。
具体的には、強化学習エージェントは、個々の重みとアクティベーションテンソルの2, 4, 8ビットのうち、最高の均一量子化レベルを探索する。
重量のみの量子化のために2MBに制限されたMCUクラスのメモリが与えられた場合、混合精度エンジンによって生成された圧縮されたモデルは、最先端のソリューションと同じくらい正確である。
論文 参考訳(メタデータ) (2020-08-12T06:09:58Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。