論文の概要: Towards Generalizable Data Protection With Transferable Unlearnable
Examples
- arxiv url: http://arxiv.org/abs/2305.11191v1
- Date: Thu, 18 May 2023 04:17:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 17:57:38.847783
- Title: Towards Generalizable Data Protection With Transferable Unlearnable
Examples
- Title(参考訳): 転送不能例を用いたデータ保護の一般化に向けて
- Authors: Bin Fang and Bo Li and Shuang Wu and Tianyi Zheng and Shouhong Ding
and Ran Yi and Lizhuang Ma
- Abstract要約: 本稿では、転送不可能な例を生成することによって、新しい一般化可能なデータ保護手法を提案する。
私たちの知る限りでは、これはデータ分散の観点からデータのプライバシを調べる最初のソリューションです。
- 参考スコア(独自算出の注目度): 50.628011208660645
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Artificial Intelligence (AI) is making a profound impact in almost every
domain. One of the crucial factors contributing to this success has been the
access to an abundance of high-quality data for constructing machine learning
models. Lately, as the role of data in artificial intelligence has been
significantly magnified, concerns have arisen regarding the secure utilization
of data, particularly in the context of unauthorized data usage. To mitigate
data exploitation, data unlearning have been introduced to render data
unexploitable. However, current unlearnable examples lack the generalization
required for wide applicability. In this paper, we present a novel,
generalizable data protection method by generating transferable unlearnable
examples. To the best of our knowledge, this is the first solution that
examines data privacy from the perspective of data distribution. Through
extensive experimentation, we substantiate the enhanced generalizable
protection capabilities of our proposed method.
- Abstract(参考訳): 人工知能(AI)は、ほぼすべての領域で大きな影響を与えています。
この成功に寄与する重要な要因の1つは、機械学習モデルを構築するための高品質なデータへのアクセスである。
近年、人工知能におけるデータの役割は大幅に拡大されているため、データの安全な利用、特に不正なデータ利用に関して懸念が高まっている。
データエクスプロイトを軽減するために、データの非学習が導入された。
しかし、現在の理解不能な例は、幅広い適用性に必要な一般化を欠いている。
本稿では,転送不能な例を生成することにより,新たな汎用データ保護手法を提案する。
私たちの知る限りでは、これはデータ分散の観点からデータのプライバシを調べる最初のソリューションです。
広範囲な実験を通じて,提案手法の一般化可能な保護能力の強化を実証する。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - DataFreeShield: Defending Adversarial Attacks without Training Data [32.29186953320468]
実データにアクセスせずにロバスト性を達成しようとする,データフリーの対向ロバスト性の問題について検討する。
本稿では,データセット生成と逆トレーニングという2つの観点からこの問題に対処するDataFreeShieldを提案する。
本稿では,DataFreeShieldがベースラインよりも優れていることを示すとともに,提案手法が対向ロバスト性問題に対する最初の完全データフリーソリューションであることを示す。
論文 参考訳(メタデータ) (2024-06-21T20:24:03Z) - MaSS: Multi-attribute Selective Suppression for Utility-preserving Data Transformation from an Information-theoretic Perspective [10.009178591853058]
本稿では,このユーティリティ保護プライバシ保護問題に対する情報理論の形式的定義を提案する。
我々は、ターゲットデータセットからセンシティブな属性を抑えることができるデータ駆動学習可能なデータ変換フレームワークを設計する。
その結果,様々な構成下での手法の有効性と一般化性を示した。
論文 参考訳(メタデータ) (2024-05-23T18:35:46Z) - Lazy Data Practices Harm Fairness Research [49.02318458244464]
本稿では,公正な機械学習データセットを包括的に分析し,不反射的手法がアルゴリズム的公正度発見の到達度と信頼性をいかに妨げているかを示す。
本分析では,(1)データと評価における特定の保護属性の表現のテクスブフラック,(2)データ前処理におけるマイノリティの広汎なテキストbf,(3)フェアネス研究の一般化を脅かすテキストbfopaqueデータ処理の3つの分野について検討した。
この研究は、公正なMLにおけるデータプラクティスの批判的な再評価の必要性を強調し、データセットのソーシングと使用の両方を改善するための指針を提供する。
論文 参考訳(メタデータ) (2024-04-26T09:51:24Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - Privacy-Preserving Debiasing using Data Augmentation and Machine Unlearning [3.049887057143419]
データ拡張は、メンバシップ推論攻撃のようなプライバシ攻撃に機械学習モデルを公開する。
我々は、既知の攻撃に対して証明可能な防御を提供しながら、データのバイアスを低減することができるデータ強化と機械学習の効果的な組み合わせを提案する。
論文 参考訳(メタデータ) (2024-04-19T21:54:20Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - Privacy Enhancing Machine Learning via Removal of Unwanted Dependencies [21.97951347784442]
本稿では,特定のアプリケーションに送信される前に,データ中のセンシティブな情報を除去する,教師付き・敵対型学習手法の新たな変種について検討する。
提案手法は,エンド・ツー・エンド方式で特徴マッピングと予測モデルを同時に保存するプライバシー保護を最適化する。
モバイルセンシングと顔データを用いた実験結果から,予測モデルの実用性能の維持に成功し,予測性能の低下を招いた。
論文 参考訳(メタデータ) (2020-07-30T19:55:10Z) - Federated Extra-Trees with Privacy Preserving [20.564530457026976]
本稿では,フェデレート・エクストラトレーズ(Federated Extra-Trees)という,新たなプライバシ保護機械学習モデルを提案する。
優れた性能を実現するために,セキュアな多施設機械学習システムを開発した。
論文 参考訳(メタデータ) (2020-02-18T01:15:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。