論文の概要: I Stolenly Swear That I Am Up to (No) Good: Design and Evaluation of Model Stealing Attacks
- arxiv url: http://arxiv.org/abs/2508.21654v1
- Date: Fri, 29 Aug 2025 14:16:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:11.073244
- Title: I Stolenly Swear That I Am Up to (No) Good: Design and Evaluation of Model Stealing Attacks
- Title(参考訳): まじめに着る(その) : モデルステアリングアタックの設計と評価
- Authors: Daryna Oliynyk, Rudolf Mayer, Kathrin Grosse, Andreas Rauber,
- Abstract要約: モデル盗難攻撃は、サービスとして提供される機械学習モデルの機密性を脅かす。
悪意ある当事者は、モデルをクエリして、データサンプルをラベル付けし、独自の代替モデルをトレーニングし、知的財産を侵害することができる。
本論文は,モデル盗難攻撃の設計と評価を推奨することで,このギャップに対処する最初の試みである。
- 参考スコア(独自算出の注目度): 6.201492569689928
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model stealing attacks endanger the confidentiality of machine learning models offered as a service. Although these models are kept secret, a malicious party can query a model to label data samples and train their own substitute model, violating intellectual property. While novel attacks in the field are continually being published, their design and evaluations are not standardised, making it challenging to compare prior works and assess progress in the field. This paper is the first to address this gap by providing recommendations for designing and evaluating model stealing attacks. To this end, we study the largest group of attacks that rely on training a substitute model -- those attacking image classification models. We propose the first comprehensive threat model and develop a framework for attack comparison. Further, we analyse attack setups from related works to understand which tasks and models have been studied the most. Based on our findings, we present best practices for attack development before, during, and beyond experiments and derive an extensive list of open research questions regarding the evaluation of model stealing attacks. Our findings and recommendations also transfer to other problem domains, hence establishing the first generic evaluation methodology for model stealing attacks.
- Abstract(参考訳): モデル盗難攻撃は、サービスとして提供される機械学習モデルの機密性を脅かす。
これらのモデルは秘密保持されているが、悪意のあるパーティはモデルをクエリしてデータサンプルをラベル付けし、独自の代替モデルをトレーニングし、知的財産を侵害することができる。
この分野における新たな攻撃が継続的に公表されているが、その設計と評価は標準化されていないため、事前の作業を比較し、現場の進捗を評価することは困難である。
本論文は,モデル盗難攻撃の設計と評価を推奨することで,このギャップに対処する最初の試みである。
この目的のために、代替モデルのトレーニングに依存する最大の攻撃群、すなわち攻撃的な画像分類モデルについて検討する。
本稿では,最初の包括的脅威モデルを提案し,アタック比較のためのフレームワークを開発する。
さらに、関連する作業から攻撃設定を分析し、どのタスクやモデルが最も研究されているかを理解する。
本研究は, 実験前後の攻撃開発におけるベストプラクティスを提示し, モデル盗難攻撃の評価に関するオープンな研究課題の広範なリストを導出する。
我々の発見と勧告は、他の問題領域にも伝達され、モデル盗難攻撃に対する最初の総合的な評価手法が確立される。
関連論文リスト
- Model Stealing Attack against Recommender System [85.1927483219819]
いくつかの敵攻撃は、レコメンデーターシステムに対するモデル盗難攻撃を成し遂げた。
本稿では、利用可能なターゲットデータとクエリの量を制限し、対象データとセットされたアイテムを共有する補助データを活用して、モデル盗難攻撃を促進する。
論文 参考訳(メタデータ) (2023-12-18T05:28:02Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - Get a Model! Model Hijacking Attack Against Machine Learning Models [30.346469782056406]
本稿では,コンピュータビジョンに基づく機械学習モデル,すなわちモデルハイジャック攻撃に対する新たなトレーニング時間攻撃を提案する。
相手はターゲットモデルをハイジャックして、モデル所有者が気づかずに別のタスクを実行することを目的としている。
以上の結果から,2つのモデルハイジャック攻撃が,モデルユーティリティの低下により,高い攻撃成功率を達成できたことが示唆された。
論文 参考訳(メタデータ) (2021-11-08T11:30:50Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Adversarial Imitation Attack [63.76805962712481]
現実的な敵攻撃は、攻撃されたモデルの知識をできるだけ少なくする必要がある。
現在の代替攻撃では、敵の例を生成するために事前訓練されたモデルが必要である。
本研究では,新たな敵模倣攻撃を提案する。
論文 参考訳(メタデータ) (2020-03-28T10:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。