論文の概要: Model Extraction Attacks Revisited
- arxiv url: http://arxiv.org/abs/2312.05386v1
- Date: Fri, 8 Dec 2023 21:49:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 21:08:32.269374
- Title: Model Extraction Attacks Revisited
- Title(参考訳): モデル抽出攻撃の再訪
- Authors: Jiacheng Liang, Ren Pang, Changjiang Li, Ting Wang
- Abstract要約: モデル抽出(ME)攻撃は、MachineLearning-as-a-Serviceプラットフォームに対する大きな脅威のひとつだ。
MLプラットフォームのME攻撃に対する脆弱性は、どのように進化していますか?
本研究は,MEの脆弱性の現状に光を当て,今後の研究に期待できるいくつかの方向性を示すものである。
- 参考スコア(独自算出の注目度): 18.842264538177353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model extraction (ME) attacks represent one major threat to
Machine-Learning-as-a-Service (MLaaS) platforms by ``stealing'' the
functionality of confidential machine-learning models through querying
black-box APIs. Over seven years have passed since ME attacks were first
conceptualized in the seminal work. During this period, substantial advances
have been made in both ME attacks and MLaaS platforms, raising the intriguing
question: How has the vulnerability of MLaaS platforms to ME attacks been
evolving? In this work, we conduct an in-depth study to answer this critical
question. Specifically, we characterize the vulnerability of current,
mainstream MLaaS platforms to ME attacks from multiple perspectives including
attack strategies, learning techniques, surrogate-model design, and benchmark
tasks. Many of our findings challenge previously reported results, suggesting
emerging patterns of ME vulnerability. Further, by analyzing the vulnerability
of the same MLaaS platforms using historical datasets from the past four years,
we retrospectively characterize the evolution of ME vulnerability over time,
leading to a set of interesting findings. Finally, we make suggestions about
improving the current practice of MLaaS in terms of attack robustness. Our
study sheds light on the current state of ME vulnerability in the wild and
points to several promising directions for future research.
- Abstract(参考訳): モデル抽出(ME)攻撃は、ブラックボックスAPIをクエリすることで、機密機械学習モデルの機能を‘ステアリング’することで、MLaaSプラットフォームに対する大きな脅威のひとつだ。
ME攻撃が最初に概念化されてから7年以上が経過した。
この期間、ME攻撃とMLaaSプラットフォームの両方で大幅に進歩し、興味深い疑問が持ち上がった。
本研究では,この批判的質問に答えるために,詳細な調査を行う。
具体的には、攻撃戦略、学習技術、代理モデル設計、ベンチマークタスクを含む複数の視点から、現在のMLaaSプラットフォームの脆弱性をME攻撃に特徴付ける。
以上の結果から, ME 脆弱性の出現パターンが示唆された。
さらに、過去4年間の過去のデータセットを用いて、同じMLaaSプラットフォームの脆弱性を分析することで、時間とともにME脆弱性の進化を振り返り、興味深い結果の集合を導いた。
最後に、攻撃堅牢性の観点から、MLaaSの現在の実践を改善することを提案する。
本研究は,MEの脆弱性の現状に光を当て,今後の研究に期待できる方向をいくつか挙げる。
関連論文リスト
- Adversarial Attacks on Machine Learning-Aided Visualizations [12.37960099024803]
ML4VISのアプローチは、ML固有の敵攻撃の影響を受けやすい。
これらの攻撃は視覚化世代を操作でき、アナリストが騙され、判断が損なわれる。
本稿では,ML と ML の両視点の全体像レンズを用いて,敵攻撃による ML 支援視覚化の潜在的な脆弱性について検討する。
論文 参考訳(メタデータ) (2024-09-04T07:23:12Z) - A Survey of Attacks on Large Vision-Language Models: Resources, Advances, and Future Trends [78.3201480023907]
LVLM(Large Vision-Language Models)は、多モーダルな理解と推論タスクにまたがる顕著な能力を示す。
LVLMの脆弱性は比較的過小評価されており、日々の使用において潜在的なセキュリティリスクを生じさせる。
本稿では,既存のLVLM攻撃の様々な形態について概説する。
論文 参考訳(メタデータ) (2024-07-10T06:57:58Z) - Leveraging the Context through Multi-Round Interactions for Jailbreaking Attacks [55.603893267803265]
大規模言語モデル(LLM)は、脱獄攻撃の影響を受けやすい。
脱獄攻撃は、攻撃クエリを微調整することで有害な情報を抽出することを目的としている。
我々は、コンテキストインタラクションアタックと呼ばれる新しい攻撃形式に焦点を当てる。
論文 参考訳(メタデータ) (2024-02-14T13:45:19Z) - A Comprehensive Survey of Attack Techniques, Implementation, and Mitigation Strategies in Large Language Models [0.0]
この記事では、モデル自体に対する攻撃と、モデルアプリケーションに対する攻撃という2つの攻撃カテゴリについて説明する。
前者は専門知識、モデルデータへのアクセス、重要な実装時間が必要です。
後者は攻撃者にはよりアクセスしやすく、注目されている。
論文 参考訳(メタデータ) (2023-12-18T07:07:32Z) - Beyond Labeling Oracles: What does it mean to steal ML models? [52.63413852460003]
モデル抽出攻撃は、クエリアクセスのみで訓練されたモデルを盗むように設計されている。
モデル抽出攻撃の成功に影響を及ぼす要因について検討する。
我々は,ME攻撃の敵の目標を再定義するようコミュニティに促した。
論文 参考訳(メタデータ) (2023-10-03T11:10:21Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Attacks in Adversarial Machine Learning: A Systematic Survey from the
Life-cycle Perspective [69.25513235556635]
敵対的機械学習(英: Adversarial Machine Learning、AML)は、機械学習の逆行現象を研究する。
機械学習システムの異なる段階で発生するこの敵対現象を探求するために、いくつかのパラダイムが最近開発された。
既存の攻撃パラダイムをカバーするための統一的な数学的枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-19T02:12:21Z) - Threat Assessment in Machine Learning based Systems [12.031113181911627]
我々は機械学習に基づくシステムに対して報告された脅威を実証研究する。
この研究は、MITREのATLASデータベース、AIインシデントデータベース、および文学からの89の現実世界のML攻撃シナリオに基づいている。
その結果,畳み込みニューラルネットワークは攻撃シナリオの中でも最も標的となるモデルの一つであることがわかった。
論文 参考訳(メタデータ) (2022-06-30T20:19:50Z) - Machine Learning Security against Data Poisoning: Are We There Yet? [23.809841593870757]
この記事では、機械学習モデル学習に使用されるトレーニングデータを侵害するデータ中毒攻撃についてレビューする。
基本的なセキュリティ原則を用いてこれらの攻撃を緩和するか、あるいはML指向の防御機構をデプロイするかについて議論する。
論文 参考訳(メタデータ) (2022-04-12T17:52:09Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。