論文の概要: MER-Inspector: Assessing model extraction risks from an attack-agnostic perspective
- arxiv url: http://arxiv.org/abs/2509.18578v1
- Date: Tue, 23 Sep 2025 02:57:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.671459
- Title: MER-Inspector: Assessing model extraction risks from an attack-agnostic perspective
- Title(参考訳): MER-Inspector:攻撃非依存の観点からのモデル抽出リスクの評価
- Authors: Xinwei Zhang, Haibo Hu, Qingqing Ye, Li Bai, Huadi Zheng,
- Abstract要約: モデル抽出攻撃(MEA)として知られるモデル関数リークの理論について検討する。
本稿では,モデル抽出リスクインスペクタ(MER-Inspector)というフレームワークを提案する。
提案した指標はモデル抽出リスクと高い相関を持ち、MER-Inspectorは2つのモデルの抽出リスクを89.58%まで正確に比較することができる。
- 参考スコア(独自算出の注目度): 13.494862189390398
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Information leakage issues in machine learning-based Web applications have attracted increasing attention. While the risk of data privacy leakage has been rigorously analyzed, the theory of model function leakage, known as Model Extraction Attacks (MEAs), has not been well studied. In this paper, we are the first to understand MEAs theoretically from an attack-agnostic perspective and to propose analytical metrics for evaluating model extraction risks. By using the Neural Tangent Kernel (NTK) theory, we formulate the linearized MEA as a regularized kernel classification problem and then derive the fidelity gap and generalization error bounds of the attack performance. Based on these theoretical analyses, we propose a new theoretical metric called Model Recovery Complexity (MRC), which measures the distance of weight changes between the victim and surrogate models to quantify risk. Additionally, we find that victim model accuracy, which shows a strong positive correlation with model extraction risk, can serve as an empirical metric. By integrating these two metrics, we propose a framework, namely Model Extraction Risk Inspector (MER-Inspector), to compare the extraction risks of models under different model architectures by utilizing relative metric values. We conduct extensive experiments on 16 model architectures and 5 datasets. The experimental results demonstrate that the proposed metrics have a high correlation with model extraction risks, and MER-Inspector can accurately compare the extraction risks of any two models with up to 89.58%.
- Abstract(参考訳): 機械学習ベースのWebアプリケーションにおける情報漏洩問題に注目が集まっている。
データプライバシリークのリスクは厳密に分析されているが、モデル抽出攻撃(MEAs)として知られるモデル関数リークの理論は十分に研究されていない。
本稿では,攻撃非依存の観点からMEAを理論的に理解し,モデル抽出リスクを評価するための分析指標を提案する。
ニューラル・タンジェント・カーネル(NTK)理論を用いて、線形化MEAを正規化カーネル分類問題として定式化し、攻撃性能の忠実性ギャップと一般化誤差境界を導出する。
これらの理論分析に基づいて,モデル回復複雑度 (MRC) と呼ばれる新しい理論指標を提案し, リスクを定量化するために, 被害者と代理モデルの重量変化距離を測定する。
さらに, モデル抽出リスクと強い正の相関を示す被害者モデルの精度が, 経験的指標として有効であることが判明した。
これら2つの指標を統合することにより,モデル抽出リスクインスペクタ(MER-Inspector)というフレームワークを提案する。
16のモデルアーキテクチャと5つのデータセットに関する広範な実験を行います。
実験の結果,提案手法はモデル抽出リスクと高い相関性を示し,MER-Inspectorはモデル抽出リスクを最大89.58%と正確に比較できることがわかった。
関連論文リスト
- A hierarchical approach for assessing the vulnerability of tree-based classification models to membership inference attack [0.552480439325792]
機械学習モデルは、トレーニングデータの秘密プロパティを不注意に公開し、メンバシップ推論攻撃(MIA)に対して脆弱になる。
本稿では、脆弱な木に基づくモデルを効率的に同定するための2つの新しい補完的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-13T15:16:53Z) - Model-free Methods for Event History Analysis and Efficient Adjustment (PhD Thesis) [55.2480439325792]
この論文は、モデルフリーの観点から統一された統計学への独立した貢献のシリーズである。
第1章では、機械学習から予測技術を活用する柔軟なメソッドを定式化するために、モデルフリーの視点をどのように利用できるか、詳しく説明している。
第2章では、あるプロセスの進化が他のプロセスに直接影響されるかどうかを記述した地域独立の概念を研究している。
論文 参考訳(メタデータ) (2025-02-11T19:24:09Z) - Error Bounds of Supervised Classification from Information-Theoretic Perspective [0.0]
我々は、情報理論の観点から、教師付き分類にディープニューラルネットワークを使用する場合の予測リスクのバウンダリについて検討する。
経験的リスクをさらに分解したモデルリスクとフィッティングエラーを導入する。
論文 参考訳(メタデータ) (2024-06-07T01:07:35Z) - Neural Frailty Machine: Beyond proportional hazard assumption in neural
survival regressions [30.018173329118184]
生存回帰のための強力なフレキシブルなニューラル・モデリング・フレームワークであるニューラル・フラリティ・マシン(NFM)を提案する。
2つの具体的なモデルは、ニューラル比例ハザードモデルと非ハザード回帰モデルを拡張する枠組みに基づいて導出される。
我々は,異なるスケールのベンチマークデータセットを6ドル以上で評価し,提案したNAMモデルは予測性能において最先端サバイバルモデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-03-18T08:15:15Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Explanation-Guided Diagnosis of Machine Learning Evasion Attacks [3.822543555265593]
本稿では,ML回避攻撃の高忠実度評価を導くために,説明可能なML手法を利用する新しいフレームワークを提案する。
本フレームワークは,事前回避摂動と回避後説明の間の説明誘導相関解析を可能にする。
論文 参考訳(メタデータ) (2021-06-30T05:47:12Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。