論文の概要: CREDIT: Certified Ownership Verification of Deep Neural Networks Against Model Extraction Attacks
- arxiv url: http://arxiv.org/abs/2602.20419v1
- Date: Mon, 23 Feb 2026 23:36:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.55189
- Title: CREDIT: Certified Ownership Verification of Deep Neural Networks Against Model Extraction Attacks
- Title(参考訳): CREDIT: モデル抽出攻撃に対するディープニューラルネットワークの認証所有者検証
- Authors: Bolin Shen, Zhan Cheng, Neil Zhenqiang Gong, Fan Yao, Yushun Dong,
- Abstract要約: 我々は、モデル抽出攻撃(MEA)に対する認証された所有権検証であるCREDITを紹介する。
DNNモデル間の類似性を定量化し、実用的な検証しきい値を提案し、このしきい値に基づいてオーナシップ検証を行うための厳密な理論的保証を提供する。
我々は、さまざまなドメインやタスクにまたがるいくつかの主流データセットに対するアプローチを広範囲に評価し、最先端のパフォーマンスを実現した。
- 参考スコア(独自算出の注目度): 54.04030169323115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning as a Service (MLaaS) has emerged as a widely adopted paradigm for providing access to deep neural network (DNN) models, enabling users to conveniently leverage these models through standardized APIs. However, such services are highly vulnerable to Model Extraction Attacks (MEAs), where an adversary repeatedly queries a target model to collect input-output pairs and uses them to train a surrogate model that closely replicates its functionality. While numerous defense strategies have been proposed, verifying the ownership of a suspicious model with strict theoretical guarantees remains a challenging task. To address this gap, we introduce CREDIT, a certified ownership verification against MEAs. Specifically, we employ mutual information to quantify the similarity between DNN models, propose a practical verification threshold, and provide rigorous theoretical guarantees for ownership verification based on this threshold. We extensively evaluate our approach on several mainstream datasets across different domains and tasks, achieving state-of-the-art performance. Our implementation is publicly available at: https://github.com/LabRAI/CREDIT.
- Abstract(参考訳): マシンラーニング・アズ・ア・サービス(MLaaS)は、ディープニューラルネットワーク(DNN)モデルへのアクセスを提供するパラダイムとして広く採用されている。
しかし、このようなサービスはモデル抽出攻撃(MEAs)に対して非常に脆弱であり、敵がターゲットモデルを何度もクエリして入力と出力のペアを収集し、それらを使用して機能を密に再現する代理モデルを訓練する。
多くの防衛戦略が提案されているが、厳密な理論的保証を持つ疑わしいモデルの所有権を検証することは難しい課題である。
このギャップに対処するため、私たちは、MEAに対して認証された所有権検証であるCREDITを紹介します。
具体的には、DNNモデル間の類似性を定量化し、実用的な検証しきい値を提案し、このしきい値に基づいてオーナシップ検証を行うための厳密な理論的保証を提供する。
我々は、さまざまなドメインやタスクにまたがるいくつかの主流データセットに対するアプローチを広範囲に評価し、最先端のパフォーマンスを実現した。
私たちの実装は、https://github.com/LabRAI/CREDIT.comで公開されています。
関連論文リスト
- CITED: A Decision Boundary-Aware Signature for GNNs Towards Model Extraction Defense [17.36953954069976]
モデル抽出攻撃(MEA)と呼ばれる新たな脅威は、重大なリスクをもたらす。
本稿では,組込みとラベルの両レベルでのオーナシップ検証を実現するための,第1世代のオーナシップ検証フレームワークCITEDを提案する。
論文 参考訳(メタデータ) (2026-02-23T23:33:31Z) - Multi-Layer Confidence Scoring for Detection of Out-of-Distribution Samples, Adversarial Attacks, and In-Distribution Misclassifications [2.4219039094115034]
我々は,Multi-Layer Analysis for Confidence Scoring (MACS)を紹介する。
我々は、信頼度推定、分布シフトの検出、敵攻撃に当てはまるスコアを導出する。
VGG16 と ViTb16 モデルを用いた実験では,最先端のアプローチを超越した性能を実現している。
論文 参考訳(メタデータ) (2025-12-22T15:25:10Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - A2-DIDM: Privacy-preserving Accumulator-enabled Auditing for Distributed Identity of DNN Model [43.10692581757967]
DNNモデルの分散IDのための新しい累積型監査法(A2-DIDM)を提案する。
A2-DIDMは、ブロックチェーンとゼロ知識技術を使用して、軽量なオンチェーンオーナシップ認証を確保しながら、データの保護とプライバシ機能を実現している。
論文 参考訳(メタデータ) (2024-05-07T08:24:50Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - Verifying Quantized Neural Networks using SMT-Based Model Checking [2.38142799291692]
インクリメンタルモデルチェック(IMC)と満足度変調理論(SMT)を用いたシンボリック検証フレームワークの開発と評価を行った。
浮動小数点演算と不動小数点演算の両方で実装されたANNの安全な挙動を保証できる。
小規模から中規模のANNの場合、我々の手法は検証のほとんどを数分で完了します。
論文 参考訳(メタデータ) (2021-06-10T18:27:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。