論文の概要: Secure Confidential Business Information When Sharing Machine Learning Models
- arxiv url: http://arxiv.org/abs/2509.16352v1
- Date: Fri, 19 Sep 2025 18:49:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.749336
- Title: Secure Confidential Business Information When Sharing Machine Learning Models
- Title(参考訳): 機械学習モデルを共有する際の信頼性の高いビジネス情報
- Authors: Yunfan Yang, Jiarong Xu, Hongzhe Zhang, Xiao Fang,
- Abstract要約: CPI(Confidential Property Inference)攻撃は、共有機械学習(ML)モデルを利用して、モデルプロバイダのプライベートモデルトレーニングデータの機密性を明らかにする。
既存の防御は、CPI攻撃がターゲットとする特定のMLモデルに適応しないと仮定することが多い。
本稿では,現実の敵の応答性を明示的に考慮した,新たな防御手法を提案する。
- 参考スコア(独自算出の注目度): 15.330821160739232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model-sharing offers significant business value by enabling firms with well-established Machine Learning (ML) models to monetize and share their models with others who lack the resources to develop ML models from scratch. However, concerns over data confidentiality remain a significant barrier to model-sharing adoption, as Confidential Property Inference (CPI) attacks can exploit shared ML models to uncover confidential properties of the model provider's private model training data. Existing defenses often assume that CPI attacks are non-adaptive to the specific ML model they are targeting. This assumption overlooks a key characteristic of real-world adversaries: their responsiveness, i.e., adversaries' ability to dynamically adjust their attack models based on the information of the target and its defenses. To overcome this limitation, we propose a novel defense method that explicitly accounts for the responsive nature of real-world adversaries via two methodological innovations: a novel Responsive CPI attack and an attack-defense arms race framework. The former emulates the responsive behaviors of adversaries in the real world, and the latter iteratively enhances both the target and attack models, ultimately producing a secure ML model that is robust against responsive CPI attacks. Furthermore, we propose and integrate a novel approximate strategy into our defense, which addresses a critical computational bottleneck of defense methods and improves defense efficiency. Through extensive empirical evaluations across various realistic model-sharing scenarios, we demonstrate that our method outperforms existing defenses by more effectively defending against CPI attacks, preserving ML model utility, and reducing computational overhead.
- Abstract(参考訳): モデル共有は、確立された機械学習(ML)モデルを持つ企業が、スクラッチからMLモデルを開発するリソースが不足している他の企業とモデルを収益化し、共有できるようにすることで、大きなビジネス価値を提供する。
機密プロパティ推論(CPI)攻撃は、共有MLモデルを利用して、モデルプロバイダのプライベートモデルトレーニングデータの機密性を明らかにする。
既存の防御は、CPI攻撃がターゲットとする特定のMLモデルに適応しないと仮定することが多い。
この仮定は、現実の敵の応答性、すなわち敵の標的とその防御情報に基づいて攻撃モデルを動的に調整する能力という、現実世界の敵の重要な特徴を見落としている。
この制限を克服するために,新しいCPI攻撃と攻撃防御兵器レースの枠組みという2つの方法論的革新を通じて,現実の敵の応答性を明示的に説明する新しい防御手法を提案する。
前者は現実世界の敵の反応挙動をエミュレートし、後者は標的モデルと攻撃モデルの両方を反復的に強化し、最終的には応答性CPI攻撃に対して堅牢なセキュアなMLモデルを生成する。
さらに,防衛手法の重要な計算ボトルネックに対処し,防衛効率を向上させる新しい近似戦略を提案し,統合する。
提案手法は,CPI攻撃に対してより効果的に防御し,MLモデルの有用性を保ち,計算オーバーヘッドを低減することにより,既存の防御よりも優れていることを示す。
関連論文リスト
- A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives [65.3369988566853]
近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-20T19:49:59Z) - A Survey on Model Extraction Attacks and Defenses for Large Language Models [55.60375624503877]
モデル抽出攻撃は、デプロイされた言語モデルに重大なセキュリティ脅威をもたらす。
この調査は、抽出攻撃と防御攻撃の包括的分類、機能抽出への攻撃の分類、データ抽出の訓練、およびプロンプトターゲット攻撃を提供する。
モデル保護,データプライバシ保護,迅速なターゲット戦略に編成された防御機構について検討し,その効果を異なる展開シナリオで評価する。
論文 参考訳(メタデータ) (2025-06-26T22:02:01Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - Model Privacy: A Unified Framework to Understand Model Stealing Attacks and Defenses [11.939472526374246]
この研究は、モデルプライバシ(Model Privacy)と呼ばれるフレームワークを提示し、モデル盗難攻撃と防御を包括的に分析する基盤を提供する。
本稿では,攻撃戦略と防衛戦略の妥当性を定量化する手法を提案し,MLモデルにおけるユーティリティとプライバシの基本的なトレードオフを分析する。
論文 参考訳(メタデータ) (2025-02-21T16:29:11Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - I Know What You Trained Last Summer: A Survey on Stealing Machine
Learning Models and Defences [0.1031296820074812]
本研究では,モデル盗難攻撃について検討し,その性能を評価し,異なる環境で対応する防御技術を探究する。
攻撃・防衛アプローチのための分類法を提案し,目標と利用可能な資源に基づいて適切な攻撃・防衛を選択する方法に関するガイドラインを提供する。
論文 参考訳(メタデータ) (2022-06-16T21:16:41Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization [12.079281416410227]
本稿では,モデル逆転攻撃に対する防御機構について検討する。
MIは、ターゲット機械学習モデルへのアクセスからトレーニングデータ配布に関する情報を推測することを目的とした、プライバシ攻撃の一種である。
我々はMI攻撃に対するMID(Multual Information Regularization based Defense)を提案する。
論文 参考訳(メタデータ) (2020-09-11T06:02:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。