論文の概要: How Secure is Forgetting? Linking Machine Unlearning to Machine Learning Attacks
- arxiv url: http://arxiv.org/abs/2503.20257v1
- Date: Wed, 26 Mar 2025 05:49:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:19:20.867629
- Title: How Secure is Forgetting? Linking Machine Unlearning to Machine Learning Attacks
- Title(参考訳): マシン・アンラーニングと機械学習・アタックを結びつけるには、どうすれば安全か?
- Authors: Muhammed Shafi K. P., Serena Nicolazzo, Antonino Nocera, Vinod P,
- Abstract要約: 機械学習(ML)におけるセキュリティ脅威の構造的分析と,そのマシン・アンラーニング(MU)への影響について述べる。
本研究では,バックドアアタック,メンバーシップ推論アタック(MIA),アタック,インバージョンアタックの4つの主要な攻撃クラスについて検討する。
倫理的考察を含むオープンな課題を特定し、将来有望な研究方向性を探求する。
- 参考スコア(独自算出の注目度): 1.6874375111244329
- License:
- Abstract: As Machine Learning (ML) evolves, the complexity and sophistication of security threats against this paradigm continue to grow as well, threatening data privacy and model integrity. In response, Machine Unlearning (MU) is a recent technology that aims to remove the influence of specific data from a trained model, enabling compliance with privacy regulations and user requests. This can be done for privacy compliance (e.g., GDPR's right to be forgotten) or model refinement. However, the intersection between classical threats in ML and MU remains largely unexplored. In this Systematization of Knowledge (SoK), we provide a structured analysis of security threats in ML and their implications for MU. We analyze four major attack classes, namely, Backdoor Attacks, Membership Inference Attacks (MIA), Adversarial Attacks, and Inversion Attacks, we investigate their impact on MU and propose a novel classification based on how they are usually used in this context. Finally, we identify open challenges, including ethical considerations, and explore promising future research directions, paving the way for future research in secure and privacy-preserving Machine Unlearning.
- Abstract(参考訳): 機械学習(ML)が進化するにつれて、このパラダイムに対するセキュリティ脅威の複雑さと洗練が拡大し続け、データのプライバシとモデルの整合性を脅かしている。
これに応えて、Machine Unlearning(MU)は、トレーニングされたモデルから特定のデータの影響を取り除くことを目的とした、最近の技術である。
これは、プライバシコンプライアンス(GDPRの忘れられる権利など)やモデル改善のために行うことができる。
しかし、MLとMUの古典的な脅威の交わりはほとんど解明されていない。
本稿では,知識の体系化(SoK)において,MLにおけるセキュリティの脅威とそのMUに対する意味を構造化解析する。
我々は,バックドアアタック,メンバーシップ推論アタック(MIA),敵アタック,インバージョンアタックの4つの主要な攻撃クラスを分析し,MUに対する攻撃の影響を調査し,この文脈でどのように使用されるかに基づいた新しい分類を提案する。
最後に、倫理的考察を含むオープンな課題を特定し、将来的な研究方向性を探究し、安全でプライバシー保護のマシン・アンラーニングにおける将来の研究の道を開く。
関連論文リスト
- Machine Unlearning Doesn't Do What You Think: Lessons for Generative AI Policy, Research, and Practice [186.055899073629]
非学習はしばしば、生成AIモデルからターゲット情報の影響を取り除くソリューションとして呼び出される。
未学習はまた、モデルが出力中にターゲットとなるタイプの情報を生成するのを防ぐ方法として提案されている。
これら2つの目標 - モデルからの情報の標的的除去と、モデル出力からの情報のターゲット的抑制 - は、様々な技術的および現実的な課題を表す。
論文 参考訳(メタデータ) (2024-12-09T20:18:43Z) - Threats, Attacks, and Defenses in Machine Unlearning: A Survey [14.03428437751312]
マシン・アンラーニング(MU)は、Safe AIを達成する可能性から、最近かなりの注目を集めている。
この調査は、機械学習における脅威、攻撃、防衛に関する広範な研究のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-03-20T15:40:18Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Identifying Appropriate Intellectual Property Protection Mechanisms for
Machine Learning Models: A Systematization of Watermarking, Fingerprinting,
Model Access, and Attacks [0.1031296820074812]
機械学習(ML)の商業的利用は拡大しており、同時に、MLモデルはより複雑になり、トレーニングコストも高まっている。
本稿では,MLにおけるIPPに関する知見を体系化するとともに,文書作成時に提案される脅威や攻撃,防衛に焦点をあてる。
我々はMLにおけるIPの包括的脅威モデルを構築し、統合された分類体系の中で攻撃と防御を分類する。
論文 参考訳(メタデータ) (2023-04-22T01:05:48Z) - Attacks in Adversarial Machine Learning: A Systematic Survey from the
Life-cycle Perspective [69.25513235556635]
敵対的機械学習(英: Adversarial Machine Learning、AML)は、機械学習の逆行現象を研究する。
機械学習システムの異なる段階で発生するこの敵対現象を探求するために、いくつかのパラダイムが最近開発された。
既存の攻撃パラダイムをカバーするための統一的な数学的枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-19T02:12:21Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Towards Automated Classification of Attackers' TTPs by combining NLP
with ML Techniques [77.34726150561087]
我々は,NLP(Natural Language Processing)と,研究におけるセキュリティ情報抽出に使用される機械学習技術の評価と比較を行った。
本研究では,攻撃者の戦術や手法に従って非構造化テキストを自動的に分類するデータ処理パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-18T09:59:21Z) - Threat Assessment in Machine Learning based Systems [12.031113181911627]
我々は機械学習に基づくシステムに対して報告された脅威を実証研究する。
この研究は、MITREのATLASデータベース、AIインシデントデータベース、および文学からの89の現実世界のML攻撃シナリオに基づいている。
その結果,畳み込みニューラルネットワークは攻撃シナリオの中でも最も標的となるモデルの一つであることがわかった。
論文 参考訳(メタデータ) (2022-06-30T20:19:50Z) - Adversarial Machine Learning Threat Analysis in Open Radio Access
Networks [37.23982660941893]
Open Radio Access Network (O-RAN) は、新しい、オープンで適応的でインテリジェントなRANアーキテクチャである。
本稿では,O-RANに対する体系的対向機械学習脅威分析を提案する。
論文 参考訳(メタデータ) (2022-01-16T17:01:38Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - Adversarial Machine Learning: Bayesian Perspectives [0.4915744683251149]
Adversarial Machine Learning (AML)は、機械学習(ML)システムをセキュリティ上の脅威から保護することを目的とした、主要な分野として浮上している。
あるシナリオでは、愚かな学習システムに入力データを積極的に操作する敵が存在するかもしれません。
これにより、MLシステムが直面する可能性のある、新たなセキュリティ脆弱性のクラスと、信頼性操作に不可欠な敵の堅牢性と呼ばれる、新たな望ましいプロパティが生成される。
論文 参考訳(メタデータ) (2020-03-07T10:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。