論文の概要: Model Extraction Attacks Revisited
- arxiv url: http://arxiv.org/abs/2312.05386v1
- Date: Fri, 8 Dec 2023 21:49:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 21:08:32.269374
- Title: Model Extraction Attacks Revisited
- Title(参考訳): モデル抽出攻撃の再訪
- Authors: Jiacheng Liang, Ren Pang, Changjiang Li, Ting Wang
- Abstract要約: モデル抽出(ME)攻撃は、MachineLearning-as-a-Serviceプラットフォームに対する大きな脅威のひとつだ。
MLプラットフォームのME攻撃に対する脆弱性は、どのように進化していますか?
本研究は,MEの脆弱性の現状に光を当て,今後の研究に期待できるいくつかの方向性を示すものである。
- 参考スコア(独自算出の注目度): 18.842264538177353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model extraction (ME) attacks represent one major threat to
Machine-Learning-as-a-Service (MLaaS) platforms by ``stealing'' the
functionality of confidential machine-learning models through querying
black-box APIs. Over seven years have passed since ME attacks were first
conceptualized in the seminal work. During this period, substantial advances
have been made in both ME attacks and MLaaS platforms, raising the intriguing
question: How has the vulnerability of MLaaS platforms to ME attacks been
evolving? In this work, we conduct an in-depth study to answer this critical
question. Specifically, we characterize the vulnerability of current,
mainstream MLaaS platforms to ME attacks from multiple perspectives including
attack strategies, learning techniques, surrogate-model design, and benchmark
tasks. Many of our findings challenge previously reported results, suggesting
emerging patterns of ME vulnerability. Further, by analyzing the vulnerability
of the same MLaaS platforms using historical datasets from the past four years,
we retrospectively characterize the evolution of ME vulnerability over time,
leading to a set of interesting findings. Finally, we make suggestions about
improving the current practice of MLaaS in terms of attack robustness. Our
study sheds light on the current state of ME vulnerability in the wild and
points to several promising directions for future research.
- Abstract(参考訳): モデル抽出(ME)攻撃は、ブラックボックスAPIをクエリすることで、機密機械学習モデルの機能を‘ステアリング’することで、MLaaSプラットフォームに対する大きな脅威のひとつだ。
ME攻撃が最初に概念化されてから7年以上が経過した。
この期間、ME攻撃とMLaaSプラットフォームの両方で大幅に進歩し、興味深い疑問が持ち上がった。
本研究では,この批判的質問に答えるために,詳細な調査を行う。
具体的には、攻撃戦略、学習技術、代理モデル設計、ベンチマークタスクを含む複数の視点から、現在のMLaaSプラットフォームの脆弱性をME攻撃に特徴付ける。
以上の結果から, ME 脆弱性の出現パターンが示唆された。
さらに、過去4年間の過去のデータセットを用いて、同じMLaaSプラットフォームの脆弱性を分析することで、時間とともにME脆弱性の進化を振り返り、興味深い結果の集合を導いた。
最後に、攻撃堅牢性の観点から、MLaaSの現在の実践を改善することを提案する。
本研究は,MEの脆弱性の現状に光を当て,今後の研究に期待できる方向をいくつか挙げる。
関連論文リスト
- Leveraging the Context through Multi-Round Interactions for Jailbreaking
Attacks [60.7432588386185]
大規模言語モデル(LLM)は、脱獄攻撃の影響を受けやすい。
脱獄攻撃は、攻撃クエリを微調整することで有害な情報を抽出することを目的としている。
我々は、コンテキストインタラクションアタックと呼ばれる新しい攻撃形式に焦点を当てる。
論文 参考訳(メタデータ) (2024-02-14T13:45:19Z) - A Survey on Vulnerability of Federated Learning: A Learning Algorithm
Perspective [8.941193384980147]
FLシステムの学習プロセスを対象とした脅威モデルに焦点を当てる。
防衛戦略は、特定のメトリクスを使用して悪意のあるクライアントを除外することから進化してきた。
最近の取り組みは、ローカルモデルの最小限の重みを、防御措置をバイパスするために微妙に変更している。
論文 参考訳(メタデータ) (2023-11-27T18:32:08Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [60.42408040267338]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Attacks in Adversarial Machine Learning: A Systematic Survey from the
Life-cycle Perspective [69.25513235556635]
敵対的機械学習(英: Adversarial Machine Learning、AML)は、機械学習の逆行現象を研究する。
機械学習システムの異なる段階で発生するこの敵対現象を探求するために、いくつかのパラダイムが最近開発された。
既存の攻撃パラダイムをカバーするための統一的な数学的枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-19T02:12:21Z) - SoK: Adversarial Machine Learning Attacks and Defences in Multi-Agent
Reinforcement Learning [0.0]
MARL(Multi-Agent Reinforcement Learning)は、AML(Adversarial Machine Learning)攻撃に対して脆弱である。
MARLは、現実世界のアプリケーションで使用する前に適切な防御が必要である。
論文 参考訳(メタデータ) (2023-01-11T04:25:00Z) - Threat Assessment in Machine Learning based Systems [12.031113181911627]
我々は機械学習に基づくシステムに対して報告された脅威を実証研究する。
この研究は、MITREのATLASデータベース、AIインシデントデータベース、および文学からの89の現実世界のML攻撃シナリオに基づいている。
その結果,畳み込みニューラルネットワークは攻撃シナリオの中でも最も標的となるモデルの一つであることがわかった。
論文 参考訳(メタデータ) (2022-06-30T20:19:50Z) - Machine Learning Security against Data Poisoning: Are We There Yet? [23.809841593870757]
この記事では、機械学習モデル学習に使用されるトレーニングデータを侵害するデータ中毒攻撃についてレビューする。
基本的なセキュリティ原則を用いてこれらの攻撃を緩和するか、あるいはML指向の防御機構をデプロイするかについて議論する。
論文 参考訳(メタデータ) (2022-04-12T17:52:09Z) - A Survey on Machine Learning-based Misbehavior Detection Systems for 5G
and Beyond Vehicular Networks [4.410803831098062]
V2Xと5Gを統合することで、超低レイテンシと高信頼性のV2X通信が可能になった。
攻撃はより攻撃的になり、攻撃者はより戦略的になった。
多くのV2XMisbehavior Detection Systems (MDS)がこのパラダイムを採用している。
しかし、これらのシステムを分析することは研究のギャップであり、効果的なMLベースのMDSを開発することは依然として未解決の問題である。
論文 参考訳(メタデータ) (2022-01-25T17:48:57Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。