論文の概要: A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives
- arxiv url: http://arxiv.org/abs/2508.15031v2
- Date: Wed, 27 Aug 2025 05:10:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 14:51:03.059485
- Title: A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives
- Title(参考訳): モデル抽出攻撃と防衛のシステム的調査--現状と展望
- Authors: Kaixiang Zhao, Lincan Li, Kaize Ding, Neil Zhenqiang Gong, Yue Zhao, Yushun Dong,
- Abstract要約: 近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
- 参考スコア(独自算出の注目度): 65.3369988566853
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) models have significantly grown in complexity and utility, driving advances across multiple domains. However, substantial computational resources and specialized expertise have historically restricted their wide adoption. Machine-Learning-as-a-Service (MLaaS) platforms have addressed these barriers by providing scalable, convenient, and affordable access to sophisticated ML models through user-friendly APIs. While this accessibility promotes widespread use of advanced ML capabilities, it also introduces vulnerabilities exploited through Model Extraction Attacks (MEAs). Recent studies have demonstrated that adversaries can systematically replicate a target model's functionality by interacting with publicly exposed interfaces, posing threats to intellectual property, privacy, and system security. In this paper, we offer a comprehensive survey of MEAs and corresponding defense strategies. We propose a novel taxonomy that classifies MEAs according to attack mechanisms, defense approaches, and computing environments. Our analysis covers various attack techniques, evaluates their effectiveness, and highlights challenges faced by existing defenses, particularly the critical trade-off between preserving model utility and ensuring security. We further assess MEAs within different computing paradigms and discuss their technical, ethical, legal, and societal implications, along with promising directions for future research. This systematic survey aims to serve as a valuable reference for researchers, practitioners, and policymakers engaged in AI security and privacy. Additionally, we maintain an online repository continuously updated with related literature at https://github.com/kzhao5/ModelExtractionPapers.
- Abstract(参考訳): 機械学習(ML)モデルは、複雑さと実用性において著しく成長し、複数のドメインにまたがる進歩を推進している。
しかし、かなりの計算資源と専門知識は歴史的に広く採用を制限してきた。
MLaaS(Machine-Learning-as-a-Service)プラットフォームは、ユーザフレンドリーなAPIを通じて、スケーラブルで便利で安価なMLモデルへのアクセスを提供することによって、これらの障壁に対処している。
このアクセシビリティは高度なML機能の利用を促進する一方で、モデル抽出攻撃(MEAs)を通じて悪用された脆弱性も導入している。
近年の研究では、敵は公開インターフェースと相互作用し、知的財産権、プライバシ、システムセキュリティに脅威を及ぼすことによって、ターゲットモデルの機能を体系的に再現できることが示されている。
本稿では,MEAおよびそれに対応する防衛戦略に関する包括的調査を行う。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
本分析では, 各種攻撃手法を網羅し, その有効性を評価し, 既存の防衛, 特にモデルユーティリティの維持とセキュリティ確保のトレードオフに直面する課題を強調する。
さらに、異なるコンピューティングパラダイム内のMEAを評価し、その技術的、倫理的、法的、社会的含意について、将来的な研究の方向性とともに議論する。
この体系的な調査は、AIのセキュリティとプライバシに関わる研究者、実践者、政策立案者にとって貴重な参考となることを目的としている。
さらに、オンラインリポジトリをhttps://github.com/kzhao5/ModelExtractionPapers.comで継続的に更新しています。
関連論文リスト
- A Survey on Model Extraction Attacks and Defenses for Large Language Models [55.60375624503877]
モデル抽出攻撃は、デプロイされた言語モデルに重大なセキュリティ脅威をもたらす。
この調査は、抽出攻撃と防御攻撃の包括的分類、機能抽出への攻撃の分類、データ抽出の訓練、およびプロンプトターゲット攻撃を提供する。
モデル保護,データプライバシ保護,迅速なターゲット戦略に編成された防御機構について検討し,その効果を異なる展開シナリオで評価する。
論文 参考訳(メタデータ) (2025-06-26T22:02:01Z) - A Survey of Model Extraction Attacks and Defenses in Distributed Computing Environments [55.60375624503877]
モデル抽出攻撃(MEA)は、敵がモデルを盗み、知的財産と訓練データを公開することによって、現代の機械学習システムを脅かす。
この調査は、クラウド、エッジ、フェデレーションのユニークな特性がどのように攻撃ベクトルや防御要件を形作るのかを、緊急に理解する必要に起因している。
本研究は, 自動運転車, 医療, 金融サービスといった重要な分野において, 環境要因がセキュリティ戦略にどう影響するかを実証し, 攻撃手法と防衛機構の進化を系統的に検討する。
論文 参考訳(メタデータ) (2025-02-22T03:46:50Z) - Model Privacy: A Unified Framework to Understand Model Stealing Attacks and Defenses [11.939472526374246]
この研究は、モデルプライバシ(Model Privacy)と呼ばれるフレームワークを提示し、モデル盗難攻撃と防御を包括的に分析する基盤を提供する。
本稿では,攻撃戦略と防衛戦略の妥当性を定量化する手法を提案し,MLモデルにおけるユーティリティとプライバシの基本的なトレードオフを分析する。
論文 参考訳(メタデータ) (2025-02-21T16:29:11Z) - Safety at Scale: A Comprehensive Survey of Large Model and Agent Safety [296.5392512998251]
我々は、敵攻撃、データ中毒、バックドア攻撃、ジェイルブレイクとプロンプトインジェクション攻撃、エネルギー遅延攻撃、データとモデル抽出攻撃、出現するエージェント固有の脅威を含む、大規模なモデルに対する安全脅威の包括的分類を提示する。
我々は、大規模なモデル安全性におけるオープンな課題を特定し、議論し、包括的な安全性評価、スケーラブルで効果的な防御機構、持続可能なデータプラクティスの必要性を強調します。
論文 参考訳(メタデータ) (2025-02-02T05:14:22Z) - Jailbreaking and Mitigation of Vulnerabilities in Large Language Models [8.345554966569479]
大規模言語モデル(LLM)は、自然言語の理解と生成を前進させることで、人工知能を変革した。
これらの進歩にもかかわらず、LSMは、特に注射と脱獄攻撃を急ぐために、かなりの脆弱性を示してきた。
このレビューでは、これらの脆弱性についての研究状況を分析し、利用可能な防衛戦略を提示する。
論文 参考訳(メタデータ) (2024-10-20T00:00:56Z) - Threats, Attacks, and Defenses in Machine Unlearning: A Survey [14.03428437751312]
マシン・アンラーニング(MU)は、Safe AIを達成する可能性から、最近かなりの注目を集めている。
この調査は、機械学習における脅威、攻撃、防衛に関する広範な研究のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-03-20T15:40:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。