論文の概要: FairQuant: Fairness-Aware Mixed-Precision Quantization for Medical Image Classification
- arxiv url: http://arxiv.org/abs/2602.23192v1
- Date: Thu, 26 Feb 2026 16:44:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.785546
- Title: FairQuant: Fairness-Aware Mixed-Precision Quantization for Medical Image Classification
- Title(参考訳): FairQuant:医療画像分類のためのFairness-Aware Mixed-Precision Quantization
- Authors: Thomas Woergaard, Raghavendra Selvan,
- Abstract要約: 医用画像分類のためのフェアネス対応混合精度量子化方式について, ビット予算による検討を行った。
グループ認識の重要度分析、予算付き混合精度割当、学習可能なビット認識量子化(BAQ)モードを組み合わせたフレームワークであるFairQuantを紹介する。
- 参考スコア(独自算出の注目度): 6.445605125467573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compressing neural networks by quantizing model parameters offers useful trade-off between performance and efficiency. Methods like quantization-aware training and post-training quantization strive to maintain the downstream performance of compressed models compared to the full precision models. However, these techniques do not explicitly consider the impact on algorithmic fairness. In this work, we study fairness-aware mixed-precision quantization schemes for medical image classification under explicit bit budgets. We introduce FairQuant, a framework that combines group-aware importance analysis, budgeted mixed-precision allocation, and a learnable Bit-Aware Quantization (BAQ) mode that jointly optimizes weights and per-unit bit allocations under bitrate and fairness regularization. We evaluate the method on Fitzpatrick17k and ISIC2019 across ResNet18/50, DeiT-Tiny, and TinyViT. Results show that FairQuant configurations with average precision near 4-6 bits recover much of the Uniform 8-bit accuracy while improving worst-group performance relative to Uniform 4- and 8-bit baselines, with comparable fairness metrics under shared budgets.
- Abstract(参考訳): モデルパラメータの量子化によるニューラルネットワークの圧縮は、性能と効率のトレードオフとして有用である。
量子化対応トレーニングやポストトレーニング量子化といった手法は、完全精度のモデルと比較して圧縮モデルの下流性能を維持するために努力している。
しかし、これらの手法はアルゴリズムの公正性への影響を明示的に考慮していない。
本研究では,医用画像分類のための公平性を考慮した混合精度量子化手法について,ビット予算による検討を行った。
グループ認識の重要度分析,予算付き混合精度割当,およびビットレートおよび公平度正則化の下でのユニット単位のビット割り当てと重みを協調的に最適化する学習可能なビット認識量子化(BAQ)モードを組み合わせたフレームワークであるFairQuantを紹介する。
The method on Fitzpatrick17k and ISIC2019 across ResNet18/50, DeiT-Tiny, TinyViT。
その結果,FairQuantは平均精度4~6ビットに近い構成で,Uniform 4ビットと8ビットのベースラインに対して最悪のグループ性能を向上し,共有予算下では同等のフェアネス測定値が得られた。
関連論文リスト
- MoR: Mixture Of Representations For Mixed-Precision Training [0.398636957150696]
Mixture-of-Representations (MoR) は、新しいテンソル単位およびサブテンソルレベル量子化フレームワークである。
MoRはテンソルの数値特性を動的に解析し、様々な表現を選択する。
最初の研究結果から、この手法は98.38%のテンソルをFP8形式に量子化することで、最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2025-12-28T06:28:50Z) - Efficiency Meets Fidelity: A Novel Quantization Framework for Stable Diffusion [9.402892455344677]
安定拡散モデル(SDM)のための効率的な量子化フレームワークを提案する。
我々のフレームワークはトレーニングと推論の一貫性を同時に維持し、最適化の安定性を確保する。
本手法は,訓練時間を短縮した最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-09T17:00:20Z) - "Give Me BF16 or Give Me Death"? Accuracy-Performance Trade-Offs in LLM Quantization [67.3213104337679]
量子化は大規模言語モデル(LLM)推論を高速化するための強力なツールであるが、異なるフォーマット間での精度と性能のトレードオフは依然として不明である。
FP8,INT8,INT4の量子化を学術ベンチマークや実世界のタスクで評価し,これまでで最も包括的な実証的研究を行った。
論文 参考訳(メタデータ) (2024-11-04T18:21:59Z) - Towards a tailored mixed-precision sub-8-bit quantization scheme for
Gated Recurrent Units using Genetic Algorithms [39.979007027634196]
ゲーテッド・リカレント・ユニット(GRU)は内部状態に依存しているためチューニングが難しい。
本稿では,各演算子のビット幅を独立に選択できるGRUのモジュラ整数量子化方式を提案する。
論文 参考訳(メタデータ) (2024-02-19T16:24:20Z) - On-Chip Hardware-Aware Quantization for Mixed Precision Neural Networks [52.97107229149988]
エッジデバイス上でハードウェア対応の混合精度量子化を行うOn-Chipハードウェア・アウェア量子化フレームワークを提案する。
このパイプラインは、量子化プロセスが量子化演算子の実際のハードウェア効率を知覚することを可能にする。
精度測定のために,マルチチップシナリオにおける演算子の精度への影響を効果的に推定するMask-Guided Quantization Estimation技術を提案する。
論文 参考訳(メタデータ) (2023-09-05T04:39:34Z) - Post-Training Quantization for Vision Transformer [85.57953732941101]
本稿では,視覚変換器のメモリ記憶量と計算コストを削減するための学習後量子化アルゴリズムを提案する。
約8ビット量子化を用いて、ImageNetデータセット上でDeiT-Bモデルを用いて81.29%のトップ-1の精度を得ることができる。
論文 参考訳(メタデータ) (2021-06-27T06:27:22Z) - Differentiable Model Compression via Pseudo Quantization Noise [99.89011673907814]
本稿では,モデルパラメータに独立な擬似量子化雑音を加えて量子化演算子の効果を近似する。
本手法が,画像分類,言語モデリング,音声ソース分離などのベンチマークやアーキテクチャにおいて,最先端の量子化技術を上回ることを実験的に検証した。
論文 参考訳(メタデータ) (2021-04-20T14:14:03Z) - Searching for Low-Bit Weights in Quantized Neural Networks [129.8319019563356]
低ビットの重みとアクティベーションを持つ量子ニューラルネットワークは、AIアクセラレータを開発する上で魅力的なものだ。
本稿では、任意の量子化ニューラルネットワークにおける離散重みを探索可能な変数とみなし、差分法を用いて正確に探索する。
論文 参考訳(メタデータ) (2020-09-18T09:13:26Z) - FracBits: Mixed Precision Quantization via Fractional Bit-Widths [29.72454879490227]
混合精度量子化は、複数のビット幅での算術演算をサポートするカスタマイズハードウェアで好適である。
本稿では,目標計算制約下での混合精度モデルに基づく学習に基づく新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-04T06:09:09Z) - Training with Quantization Noise for Extreme Model Compression [57.51832088938618]
与えられたモデルサイズに対する精度を最大化しながら、コンパクトなモデルを作成するという問題に取り組む。
標準的な解決策は、トレーニング中に重みが定量化され、勾配がストレート・スルー推定器に近似される量子化意識訓練(Quantization Aware Training)でネットワークをトレーニングすることである。
本稿では, この手法を, 極端な圧縮法を用いて, int8 の固定点量子化を超えて機能するように拡張する。
論文 参考訳(メタデータ) (2020-04-15T20:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。