論文の概要: Bits for Privacy: Evaluating Post-Training Quantization via Membership Inference
- arxiv url: http://arxiv.org/abs/2512.15335v1
- Date: Wed, 17 Dec 2025 11:28:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.961837
- Title: Bits for Privacy: Evaluating Post-Training Quantization via Membership Inference
- Title(参考訳): プライバシーのためのビット:メンバーシップ推論によるトレーニング後の量子化の評価
- Authors: Chenxiang Zhang, Tongxi Qu, Zhong Li, Tian Zhang, Jun Pang, Sjouke Mauw,
- Abstract要約: ポストトレーニング量子化(PTQ)におけるプライバシとユーティリティの関係に関する最初の体系的研究について述べる。
CIFAR-10, CIFAR-100, TinyImageNetデータセット上で, AdaRound, BRECQ, OBC-across multiple precision Level (4-bit, 2-bit, 1.58-bit) の3つのPTQアルゴリズムを解析した。
以上の結果から,低精度PTQがプライバシー漏洩を低減できることが示された。
- 参考スコア(独自算出の注目度): 18.395729829969433
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks are widely deployed with quantization techniques to reduce memory and computational costs by lowering the numerical precision of their parameters. While quantization alters model parameters and their outputs, existing privacy analyses primarily focus on full-precision models, leaving a gap in understanding how bit-width reduction can affect privacy leakage. We present the first systematic study of the privacy-utility relationship in post-training quantization (PTQ), a versatile family of methods that can be applied to pretrained models without further training. Using membership inference attacks as our evaluation framework, we analyze three popular PTQ algorithms-AdaRound, BRECQ, and OBC-across multiple precision levels (4-bit, 2-bit, and 1.58-bit) on CIFAR-10, CIFAR-100, and TinyImageNet datasets. Our findings consistently show that low-precision PTQs can reduce privacy leakage. In particular, lower-precision models demonstrate up to an order of magnitude reduction in membership inference vulnerability compared to their full-precision counterparts, albeit at the cost of decreased utility. Additional ablation studies on the 1.58-bit quantization level show that quantizing only the last layer at higher precision enables fine-grained control over the privacy-utility trade-off. These results offer actionable insights for practitioners to balance efficiency, utility, and privacy protection in real-world deployments.
- Abstract(参考訳): ディープニューラルネットワークは、パラメータの数値的精度を下げることで、メモリと計算コストを削減するために量子化技術で広くデプロイされている。
量子化はモデルパラメータとその出力を変えるが、既存のプライバシ分析は主に完全精度モデルに焦点を当て、ビット幅の削減がプライバシの漏洩にどのように影響するかを理解するためのギャップを残している。
本稿では,事前学習モデルに適用可能な多種多様な手法であるPTQ(Post-training Quantization)におけるプライバシ・ユーティリティー関係に関する最初の体系的研究について述べる。
CIFAR-10, CIFAR-100, TinyImageNetデータセット上で, AdaRound, BRECQ, OBC-across multiple precision Level (4-bit, 2-bit, 1.58-bit) の3つのPTQアルゴリズムの解析を行った。
以上の結果から,低精度PTQがプライバシー漏洩を低減できることが示された。
特に、低精度モデルでは、実用コストの低下にもかかわらず、完全精度モデルと比較して、会員推測の脆弱性の桁違いに減少する。
1.58ビットの量子化レベルに関するさらなるアブレーション研究は、より高精度で最後の層のみを定量化することで、プライバシーとユーティリティのトレードオフをきめ細かな制御が可能になることを示している。
これらの結果は、実践者が現実のデプロイメントにおいて効率、ユーティリティ、プライバシ保護のバランスをとるための実用的な洞察を提供する。
関連論文リスト
- CAGE: Curvature-Aware Gradient Estimation For Accurate Quantization-Aware Training [73.46600457802693]
本稿では,量子化による損失に対応する新しい手法を提案する。
CAGEは、同様の計算コストで、精度の観点から最先端の手法を大幅に改善する。
LlamaモデルのQAT事前トレーニングでは、CAGEは4ビット(W4A4)で達成された精度と事前のベストメソッドとを一致させる。
論文 参考訳(メタデータ) (2025-10-21T16:33:57Z) - Beyond Outliers: A Study of Optimizers Under Quantization [82.75879062804955]
量子化下でのモデルロバスト性に対する選択の影響について検討する。
モデルの性能が、異なるベースラインでトレーニングした場合にどのように低下するかを評価する。
異なるパラメータによる量子化対応トレーニングのスケーリング法則を導出する。
論文 参考訳(メタデータ) (2025-09-27T21:15:22Z) - DPQuant: Efficient and Differentially-Private Model Training via Dynamic Quantization Scheduling [7.79764032127686]
Differentially-Private SGD(DP-SGD)は、機密データを使用してニューラルネットワークをトレーニングする際のユーザのプライバシを保護する強力なテクニックである。
DP-SGDの量子化は,通常のSGDに比べて高い精度で劣化することを示した。
QPQuantは動的量子化フレームワークであり、各エポックで量子化するレイヤの変動部分集合を適応的に選択する。
論文 参考訳(メタデータ) (2025-09-03T16:51:26Z) - Improving Quantization-aware Training of Low-Precision Network via Block Replacement on Full-Precision Counterpart [1.5508907979229383]
量子化対応トレーニング(QAT)は、ネットワーク量子化の一般的なパラダイムである。
低精度モデルは限られた表現能力を示し、完全精度の計算を直接複製することはできない。
本稿では,低精度ネットワークのフォワード・バック・プロセスが,完全精度パートナーによってガイドされるようにすることで,懸念を緩和するための一般的なQATフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-20T12:38:18Z) - GAQAT: gradient-adaptive quantization-aware training for domain generalization [54.31450550793485]
そこで本研究では,DGのためのGAQAT(Gradient-Adaptive Quantization-Aware Training)フレームワークを提案する。
我々のアプローチは、低精度量子化におけるスケール・グラディエント・コンフリクト問題を特定することから始まる。
GAQATフレームワークの有効性を実験により検証した。
論文 参考訳(メタデータ) (2024-12-07T06:07:21Z) - AlignedKV: Reducing Memory Access of KV-Cache with Precision-Aligned Quantization [5.572159724234467]
混合精度量子化は重要なパラメータと重要でないパラメータを区別する。
既存の手法は定性的分析と手動実験によってのみ重要なパラメータを識別できる。
本稿では,パラメータの重要性を総合的に評価する定量的枠組みを構築するために,いわゆる「精度アライメント」という新しい基準を提案する。
論文 参考訳(メタデータ) (2024-09-25T01:39:02Z) - Zero-Shot Sharpness-Aware Quantization for Pre-trained Language Models [88.80146574509195]
量子化は、メモリオーバーヘッドを減らし、推論を加速するための有望なアプローチである。
種々のPLMのゼロショット量子化のための新しい量子化(ZSAQ)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-20T07:09:56Z) - SQuAT: Sharpness- and Quantization-Aware Training for BERT [43.049102196902844]
シャープネスと量子化アウェアトレーニング(SQuAT)を提案する。
提案手法は,2,3,4ビット条件下で,最先端の量子化BERTモデルよりも1%向上する。
また, シャープネスの測定実験により, 他の量子化法と比較して, より平坦な最小値が得られることが示唆された。
論文 参考訳(メタデータ) (2022-10-13T16:52:19Z) - A Blessing of Dimensionality in Membership Inference through
Regularization [29.08230123469755]
モデルのパラメータ数がいかにプライバシーとユーティリティのトレードオフを引き起こすかを示す。
次に、適切な一般化正規化と組み合わせることで、モデルのパラメータの数を増やすことで、そのプライバシと性能の両方を実際に増加させることができることを示す。
論文 参考訳(メタデータ) (2022-05-27T15:44:00Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。