論文の概要: DivQAT: Enhancing Robustness of Quantized Convolutional Neural Networks against Model Extraction Attacks
- arxiv url: http://arxiv.org/abs/2512.23948v1
- Date: Tue, 30 Dec 2025 02:34:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.261109
- Title: DivQAT: Enhancing Robustness of Quantized Convolutional Neural Networks against Model Extraction Attacks
- Title(参考訳): DivQAT: モデル抽出攻撃に対する量子畳み込みニューラルネットワークのロバスト性向上
- Authors: Kacem Khaled, Felipe Gohring de Magalhães, Gabriela Nicolescu,
- Abstract要約: 量子化学習(QAT)に基づく量子化CNNの学習アルゴリズムであるDivQATを提案する。
本研究では,モデルの精度を損なうことなく,モデル抽出攻撃を防御する手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional Neural Networks (CNNs) and their quantized counterparts are vulnerable to extraction attacks, posing a significant threat of IP theft. Yet, the robustness of quantized models against these attacks is little studied compared to large models. Previous defenses propose to inject calculated noise into the prediction probabilities. However, these defenses are limited since they are not incorporated during the model design and are only added as an afterthought after training. Additionally, most defense techniques are computationally expensive and often have unrealistic assumptions about the victim model that are not feasible in edge device implementations and do not apply to quantized models. In this paper, we propose DivQAT, a novel algorithm to train quantized CNNs based on Quantization Aware Training (QAT) aiming to enhance their robustness against extraction attacks. To the best of our knowledge, our technique is the first to modify the quantization process to integrate a model extraction defense into the training process. Through empirical validation on benchmark vision datasets, we demonstrate the efficacy of our technique in defending against model extraction attacks without compromising model accuracy. Furthermore, combining our quantization technique with other defense mechanisms improves their effectiveness compared to traditional QAT.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)とその量子化ニューラルネットワークは、抽出攻撃に対して脆弱であり、IP盗難の重大な脅威となる。
しかし、これらの攻撃に対する量子化モデルのロバスト性は、大型モデルと比較してほとんど研究されていない。
従来は予測確率に計算ノイズを注入することを提案した。
しかし、これらの防御は、モデル設計において組み込まれていないため、訓練後のみ追加されるため、制限されている。
さらに、ほとんどの防衛技術は計算コストが高く、エッジデバイス実装では実現不可能で、量子化されたモデルには適用できない犠牲者モデルに関する非現実的な仮定を持つことが多い。
本稿では,抽出攻撃に対するロバスト性を高めることを目的とした,量子化意識訓練(QAT)に基づく量子化CNNのトレーニングアルゴリズムであるDivQATを提案する。
我々の知る限り、我々の技術はまず量子化プロセスを変更し、モデル抽出防御をトレーニングプロセスに統合する。
ベンチマークビジョンデータセットの実証検証を通じて、モデルの精度を損なうことなく、モデル抽出攻撃を防御する手法の有効性を実証する。
さらに,量子化技術と他の防御機構を組み合わせることで,従来のQATと比較して有効性が向上する。
関連論文リスト
- MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - On the Robustness of Random Forest Against Untargeted Data Poisoning: An
Ensemble-Based Approach [42.81632484264218]
機械学習モデルでは、トレーニングセット(中毒)の分画の摂動が、モデルの精度を著しく損なう可能性がある。
本研究の目的は、ランダムな森林を標的のない無作為な毒殺攻撃から保護する、新しいハッシュベースのアンサンブルアプローチを実現することである。
論文 参考訳(メタデータ) (2022-09-28T11:41:38Z) - Careful What You Wish For: on the Extraction of Adversarially Trained
Models [2.707154152696381]
最近の機械学習(ML)モデルに対する攻撃は、いくつかのセキュリティとプライバシの脅威を引き起こす。
本稿では,敵の学習したモデルに対する抽出攻撃を評価する枠組みを提案する。
本研究では, 自然学習環境下で得られたモデルよりも, 敵の訓練を受けたモデルの方が抽出攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2022-07-21T16:04:37Z) - Adversarial Robustness Assessment of NeuroEvolution Approaches [1.237556184089774]
CIFAR-10画像分類タスクにおける2つのNeuroEvolutionアプローチにより得られたモデルのロバスト性を評価する。
以上の結果から,進化したモデルが反復的手法で攻撃されると,その精度は通常0に低下するか0に近づきます。
これらの技法のいくつかは、元の入力に付加された摂動を悪化させ、頑丈さを損なう可能性がある。
論文 参考訳(メタデータ) (2022-07-12T10:40:19Z) - Stochastic-Shield: A Probabilistic Approach Towards Training-Free
Adversarial Defense in Quantized CNNs [0.0]
量子ニューラルネットワーク(NN)は、小さなハードウェアプラットフォームにディープラーニングモデルを効率的にデプロイするための一般的な標準である。
再トレーニングやアドホックな微調整の負担を伴わずに,各モジュールを高精度に実現することにより,効率とロバスト性が両立できることを示す。
論文 参考訳(メタデータ) (2021-05-13T18:59:15Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - RAB: Provable Robustness Against Backdoor Attacks [20.702977915926787]
我々は、一般的な脅威モデル、特にバックドアアタックに対して、機械学習モデルの堅牢性を証明することに重点を置いている。
トレーニングモデルをスムースにし,バックドア攻撃に対する堅牢性を証明するための,最初の堅牢なトレーニングプロセスであるRABを提案する。
我々は、さまざまな機械学習(ML)モデルに対する包括的な実験を行い、バックドア攻撃に対する信頼性の高い堅牢性を示す最初のベンチマークを提供する。
論文 参考訳(メタデータ) (2020-03-19T17:05:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。