論文の概要: On the Limitations of Model Stealing with Uncertainty Quantification
Models
- arxiv url: http://arxiv.org/abs/2305.05293v1
- Date: Tue, 9 May 2023 09:31:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 19:42:19.018012
- Title: On the Limitations of Model Stealing with Uncertainty Quantification
Models
- Title(参考訳): 不確かさ量子化モデルによるモデルステアリングの限界について
- Authors: David Pape, Sina D\"aubener, Thorsten Eisenhofer, Antonio Emanuele
Cin\`a, Lea Sch\"onherr
- Abstract要約: モデルステルスは、オリジナルのトレーニングコストのごく一部で、犠牲者モデルの機能を推測することを目的としている。
実際には、モデルのアーキテクチャ、重み寸法、および元のトレーニングデータを正確に決定することはできない。
複数の可能なネットワークを生成し、それらの予測を組み合わせることで、盗まれたモデルの品質を改善する。
- 参考スコア(独自算出の注目度): 1.3124513975412255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model stealing aims at inferring a victim model's functionality at a fraction
of the original training cost. While the goal is clear, in practice the model's
architecture, weight dimension, and original training data can not be
determined exactly, leading to mutual uncertainty during stealing. In this
work, we explicitly tackle this uncertainty by generating multiple possible
networks and combining their predictions to improve the quality of the stolen
model. For this, we compare five popular uncertainty quantification models in a
model stealing task. Surprisingly, our results indicate that the considered
models only lead to marginal improvements in terms of label agreement (i.e.,
fidelity) to the stolen model. To find the cause of this, we inspect the
diversity of the model's prediction by looking at the prediction variance as a
function of training iterations. We realize that during training, the models
tend to have similar predictions, indicating that the network diversity we
wanted to leverage using uncertainty quantification models is not (high) enough
for improvements on the model stealing task.
- Abstract(参考訳): モデルステルスは、オリジナルのトレーニングコストのごく一部で犠牲者モデルの機能を推測することを目的としている。
目標は明確であるが、実際には、モデルのアーキテクチャ、重量寸法、元のトレーニングデータは正確には決定できないため、盗みの間に相互不確実性が生じる。
本研究では,複数の可能なネットワークを生成し,それらの予測を組み合わせることで,盗難モデルの品質を向上させることにより,この不確実性に明示的に対処する。
そこで本研究では,5つの不確実性定量化モデルをモデル盗みタスクで比較した。
驚くべきことに、これらのモデルが、盗まれたモデルに対するラベルの合意(すなわち忠実性)に関して限界的な改善をもたらすだけであることを示している。
この原因を明らかにするために,予測分散を訓練イテレーションの関数として捉え,モデル予測の多様性を検証した。
トレーニング中、モデルには同様の予測がある傾向があり、不確実性定量化モデルを使用したネットワークの多様性は、モデル盗難タスクを改善するのに十分ではない(高い)ことを示す。
関連論文リスト
- Predictive Churn with the Set of Good Models [64.05949860750235]
近似機械学習モデルの集合に対する競合予測の効果について検討する。
ラーショモン集合内のモデル間の係り受けに関する理論的結果を示す。
当社のアプローチは、コンシューマ向けアプリケーションにおいて、より予測し、削減し、混乱を避けるためにどのように使用できるかを示します。
論文 参考訳(メタデータ) (2024-02-12T16:15:25Z) - An Ambiguity Measure for Recognizing the Unknowns in Deep Learning [0.0]
深層ニューラルネットワークの学習範囲から, 深部ニューラルネットワークの理解について検討する。
任意のモデルに対する入力のあいまいさを定量化する尺度を提案する。
論文 参考訳(メタデータ) (2023-12-11T02:57:12Z) - Uncertainty Quantification for Rule-Based Models [0.03807314298073299]
ルールベースの分類モデルは、確率をモデル化し、統計モデルのように予測に変換するのではなく、直接値を予測する。
本稿では,二項出力を持つ二項分類器をブラックボックスとして扱うメタモデルの形で不確実な定量化フレームワークを提案し,その推定に対する信頼度とともに,与えられた入力におけるそのベースモデルの予測精度を推定する。
論文 参考訳(メタデータ) (2022-11-03T15:50:09Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - Are You Stealing My Model? Sample Correlation for Fingerprinting Deep
Neural Networks [86.55317144826179]
従来の方法は、常にモデル指紋として転送可能な敵の例を利用する。
本稿では,SAmple correlation (SAC) に基づく新しいモデル盗難検出手法を提案する。
SACは、敵の訓練や移動学習を含む様々なモデル盗難攻撃をうまく防いでいる。
論文 参考訳(メタデータ) (2022-10-21T02:07:50Z) - MEGA: Model Stealing via Collaborative Generator-Substitute Networks [4.065949099860426]
近年のデータフリーモデルステイティングメソッドは,実際のクエリの例を使わずに,ターゲットモデルの知識を抽出するために有効であることが示されている。
本稿では,データフリーモデルステーリングフレームワーク(MEGA)を提案する。
以上の結果から,我々の訓練した代替モデルの精度と敵攻撃成功率は,最先端のデータフリーブラックボックス攻撃よりも最大で33%,40%高い値となる可能性が示唆された。
論文 参考訳(メタデータ) (2022-01-31T09:34:28Z) - Why Calibration Error is Wrong Given Model Uncertainty: Using Posterior
Predictive Checks with Deep Learning [0.0]
キャリブレーション誤差とその変種が、モデルの不確実性によってほとんど常に正しくないことを示す。
このミスがいかにして悪いモデルへの信頼と良いモデルへの信頼につながるかを示します。
論文 参考訳(メタデータ) (2021-12-02T18:26:30Z) - Mismatched No More: Joint Model-Policy Optimization for Model-Based RL [172.37829823752364]
本稿では,モデルとポリシーを共同でトレーニングする単一目的について提案する。
我々の目標は、期待されるリターンのグローバルな低い境界であり、この境界は特定の仮定の下で厳密になる。
結果のアルゴリズム(MnM)は概念的にはGANと似ている。
論文 参考訳(メタデータ) (2021-10-06T13:43:27Z) - Probabilistic Modeling for Human Mesh Recovery [73.11532990173441]
本稿では,2次元の証拠から3次元の人体復元の問題に焦点を当てた。
我々は,この問題を,入力から3Dポーズの分布へのマッピング学習として再考した。
論文 参考訳(メタデータ) (2021-08-26T17:55:11Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。