論文の概要: ERASER: Machine Unlearning in MLaaS via an Inference Serving-Aware
Approach
- arxiv url: http://arxiv.org/abs/2311.16136v2
- Date: Thu, 1 Feb 2024 02:25:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 18:50:13.386300
- Title: ERASER: Machine Unlearning in MLaaS via an Inference Serving-Aware
Approach
- Title(参考訳): ERASER: 推論Serving-AwareアプローチによるMLaaSの機械学習
- Authors: Yuke Hu, Jian Lou, Jiaqi Liu, Wangze Ni, Feng Lin, Zhan Qin, Kui Ren
- Abstract要約: 多くの機械学習手法が提案され、訓練されたモデルからデータ所有者のデータを非学習要求で除去する。
ERASERは、推論サービス問題に対処する適切な未学習実行タイミングを戦略的に選択する。
推論待ち時間の99%と、推論オフブリビオンベースラインでの計算オーバーヘッドの31%を効果的に節約できる。
- 参考スコア(独自算出の注目度): 29.30771854517696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past years, Machine Learning-as-a-Service (MLaaS) has received a
surging demand for supporting Machine Learning-driven services to offer
revolutionized user experience across diverse application areas. MLaaS provides
inference service with low inference latency based on an ML model trained using
a dataset collected from numerous individual data owners. Recently, for the
sake of data owners' privacy and to comply with the "right to be forgotten
(RTBF)" as enacted by data protection legislation, many machine unlearning
methods have been proposed to remove data owners' data from trained models upon
their unlearning requests. However, despite their promising efficiency, almost
all existing machine unlearning methods handle unlearning requests
independently from inference requests, which unfortunately introduces a new
security issue of inference service obsolescence and a privacy vulnerability of
undesirable exposure for machine unlearning in MLaaS.
In this paper, we propose the ERASER framework for machinE unleaRning in
MLaAS via an inferencE seRving-aware approach. ERASER strategically choose
appropriate unlearning execution timing to address the inference service
obsolescence issue. A novel inference consistency certification mechanism is
proposed to avoid the violation of RTBF principle caused by postponed
unlearning executions, thereby mitigating the undesirable exposure
vulnerability. ERASER offers three groups of design choices to allow for
tailor-made variants that best suit the specific environments and preferences
of various MLaaS systems. Extensive empirical evaluations across various
settings confirm ERASER's effectiveness, e.g., it can effectively save up to
99% of inference latency and 31% of computation overhead over the
inference-oblivion baseline.
- Abstract(参考訳): 過去数年間、MLaaS(Machine Learning-as-a-Service)は、さまざまなアプリケーション領域にわたる革新的なユーザエクスペリエンスを提供するマシンラーニング駆動サービスのサポートに対する需要が急増している。
MLaaSは、多数のデータ所有者から収集されたデータセットを使用してトレーニングされたMLモデルに基づいて、推論レイテンシの低い推論サービスを提供する。
近年,データ所有者のプライバシのため,データ保護法によって制定された「忘れられる権利(RTBF)」に準拠するため,データ所有者の未学習要求に基づいてトレーニングされたモデルからデータを削除するための機械学習手法が多数提案されている。
残念ながら、推論サービスobsolescenceの新たなセキュリティ問題と、mlaasの機械学習アンラーニングにおける望ましくない露出のプライバシ脆弱性が導入されている。
本稿では,MLaASにおけるmachinE unleaRningのためのERASERフレームワークについて,InferencE seRving-awareアプローチを用いて提案する。
ERASERは、推論サービスの陳腐化問題に対処する適切な未学習実行タイミングを戦略的に選択する。
未学習実行の延期によるRTBF原則違反を回避し、望ましくない露光の脆弱性を軽減するため、新しい推論整合性認証機構を提案する。
ERASERは、さまざまなMLaaSシステムの特定の環境や好みに最も適した、テーラーメイドのバリエーションを可能にするために、3つのグループの設計選択を提供する。
さまざまな設定にわたる大規模な実験的な評価により、ERASERの有効性が確認されている。例えば、推論待ち時間の99%と、推論オフブリビオンベースラインに対する計算オーバーヘッドの31%を効果的に節約できる。
関連論文リスト
- Offset Unlearning for Large Language Models [49.851093293780615]
アンラーニングは、問題のあるトレーニングデータに影響された大規模言語モデルの潜在的な治療法として浮上した。
ブラックボックスLLMのためのオフセットアンラーニングフレームワークである$delta$-unlearningを提案する。
実験によると、$delta$-unlearningは、一般的なアウトオブスコープタスクにおいて、同じような、あるいはより強力なパフォーマンスを維持しながら、ターゲットデータを効果的に解放することができる。
論文 参考訳(メタデータ) (2024-04-17T03:39:51Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Threats, Attacks, and Defenses in Machine Unlearning: A Survey [15.05662521329346]
マシン・アンラーニング(MU)は最近、安全なAIを実現する可能性についてかなりの注目を集めている。
この調査は、機械学習における脅威、攻撃、防衛に関する広範な研究のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-03-20T15:40:18Z) - Unlearn What You Want to Forget: Efficient Unlearning for LLMs [92.51670143929056]
大規模言語モデル(LLM)は、幅広いテキストデータを事前学習し記憶することで大きな進歩を遂げた。
このプロセスはプライバシー問題やデータ保護規則違反に悩まされる可能性がある。
データ削除後のモデル全体を再トレーニングすることなく、LLMを効率的に更新できる効率的なアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-31T03:35:59Z) - A Duty to Forget, a Right to be Assured? Exposing Vulnerabilities in Machine Unlearning Services [31.347825826778276]
機械学習(ML)における未学習サービスによる潜在的な脅威を探究する。
オーバー・アンラーニングを利用してトレードオフバランスに与える影響を計測する2つの戦略を提案する。
その結果,両戦略が未学習シナリオにおけるモデルの有効性を損なう可能性が示唆された。
論文 参考訳(メタデータ) (2023-09-15T08:00:45Z) - Learn to Unlearn: A Survey on Machine Unlearning [29.077334665555316]
本稿では,最近の機械学習技術,検証機構,潜在的攻撃について概説する。
新たな課題と今後の研究方向性を強調します。
本稿では、プライバシ、エクイティ、レジリエンスをMLシステムに統合するための貴重なリソースの提供を目的としている。
論文 参考訳(メタデータ) (2023-05-12T14:28:02Z) - Privacy Adhering Machine Un-learning in NLP [66.17039929803933]
現実の業界では、機械学習を使ってユーザデータに基づくモデルを構築します。
このような委任事項には、データだけでなく、モデルの再トレーニングにも労力が要る。
データの継続的な削除と モデル再訓練のステップはスケールしません
この課題に対処するために、textitMachine Unlearningを提案する。
論文 参考訳(メタデータ) (2022-12-19T16:06:45Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z) - Towards Probabilistic Verification of Machine Unlearning [30.892906429582904]
本稿では,データ削除要求に対する検証機構の設計について研究する形式的枠組みを提案する。
提案手法は,機械学習サービスの精度に最小限の影響を与えるが,未学習に対する信頼性の高い検証を可能にする。
論文 参考訳(メタデータ) (2020-03-09T16:39:46Z) - Leveraging Semi-Supervised Learning for Fairness using Neural Networks [49.604038072384995]
機械学習に基づく意思決定システムの公平性に対する懸念が高まっている。
本稿では,ラベルのないデータから得られるニューラルネットワークを用いた半教師付きアルゴリズムを提案する。
提案したSSFairと呼ばれるモデルは、ラベルのないデータの情報を活用して、トレーニングデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2019-12-31T09:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。