論文の概要: Automated Privacy-Preserving Techniques via Meta-Learning
- arxiv url: http://arxiv.org/abs/2406.16456v1
- Date: Mon, 24 Jun 2024 08:53:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 15:33:48.957336
- Title: Automated Privacy-Preserving Techniques via Meta-Learning
- Title(参考訳): メタラーニングによる自動プライバシ保護技術
- Authors: Tânia Carvalho, Nuno Moniz, Luís Antunes,
- Abstract要約: 最初の自動プライバシ保存手法であるAUTOPRIVを提案する。
メタラーニングを使用して、非識別プロセスを自動化することで、マシンラーニングタスクのためのデータのセキュアなリリースを容易にする。
我々は、新しい領域内で最適な近似を達成できるであろう最も有望なソリューションのランクリストを提供する。
- 参考スコア(独自算出の注目度): 4.239829789304117
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Sharing private data for learning tasks is pivotal for transparent and secure machine learning applications. Many privacy-preserving techniques have been proposed for this task aiming to transform the data while ensuring the privacy of individuals. Some of these techniques have been incorporated into tools, whereas others are accessed through various online platforms. However, such tools require manual configuration, which can be complex and time-consuming. Moreover, they require substantial expertise, potentially restricting their use to those with advanced technical knowledge. In this paper, we propose AUTOPRIV, the first automated privacy-preservation method, that eliminates the need for any manual configuration. AUTOPRIV employs meta-learning to automate the de-identification process, facilitating the secure release of data for machine learning tasks. The main goal is to anticipate the predictive performance and privacy risk of a large set of privacy configurations. We provide a ranked list of the most promising solutions, which are likely to achieve an optimal approximation within a new domain. AUTOPRIV is highly effective as it reduces computational complexity and energy consumption considerably.
- Abstract(参考訳): タスクの学習のためにプライベートデータを共有することは、透明でセキュアな機械学習アプリケーションにとって重要なことです。
個人のプライバシーを確保しつつデータを変換することを目的とした,多くのプライバシ保護技術が提案されている。
これらの技法のいくつかはツールに組み込まれており、その他は様々なオンラインプラットフォームを通じてアクセスされている。
しかし、このようなツールは手動で設定する必要があるため、複雑で時間を要する可能性がある。
さらに、それらは相当な専門知識を必要とし、高度な技術知識を持つ人だけの使用を制限する可能性がある。
本稿では,自動プライバシ保護方式であるAUTOPRIVを提案する。
AUTOPRIVは、メタラーニングを使用して、非識別プロセスを自動化することで、マシンラーニングタスクのためのデータのセキュアなリリースを容易にする。
主な目標は、大規模なプライバシ構成の予測パフォーマンスとプライバシリスクを予測することである。
我々は、新しい領域内で最適な近似を達成できるであろう最も有望なソリューションのランクリストを提供する。
AUTOPRIVは計算複雑性とエネルギー消費を大幅に削減するので、非常に効果的である。
関連論文リスト
- A Review on Machine Unlearning [3.1168315477643245]
本稿では、機械学習モデルにおけるセキュリティとプライバシに関する詳細をレビューする。
まず、機械学習が日々の生活でユーザーのプライベートデータをどのように活用できるか、そしてこの問題で果たす役割について述べる。
次に,機械学習モデルにおけるセキュリティ脅威を記述することによって,機械学習の概念を導入する。
論文 参考訳(メタデータ) (2024-11-18T06:18:13Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Privacy-Preserving Deep Learning Using Deformable Operators for Secure Task Learning [14.187385349716518]
既存のプライバシー保護方法は、画像暗号化や知覚変換アプローチに依存している。
安全なタスク学習に変形可能な演算子の集合を用いる新しいプライバシ保存フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-08T19:46:20Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - A Survey on Differential Privacy with Machine Learning and Future
Outlook [0.0]
差分プライバシーは、あらゆる攻撃や脆弱性から機械学習モデルを保護するために使用される。
本稿では,2つのカテゴリに分類される差分プライベート機械学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-11-19T14:20:53Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Warmup and Transfer Knowledge-Based Federated Learning Approach for IoT
Continuous Authentication [34.6454670154373]
本稿では,ユーザデータの匿名性を保護し,データのセキュリティを維持する新しいフェデレートラーニング(FL)手法を提案する。
ユーザプライバシとデータセキュリティを維持しながら,ユーザ認証の精度を大幅に向上させる実験を行った。
論文 参考訳(メタデータ) (2022-11-10T15:51:04Z) - When Machine Learning Meets Privacy: A Survey and Outlook [22.958274878097683]
プライバシーは、この機械学習ベースの人工知能時代において大きな関心事となっている。
プライバシと機械学習(ML)の保存に関する作業はまだ初期段階にある。
本稿では、プライバシ問題における最先端技術と機械学習ソリューションについて調査する。
論文 参考訳(メタデータ) (2020-11-24T00:52:49Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。