論文の概要: Multi-Trigger-Key: Towards Multi-Task Privacy Preserving In Deep
Learning
- arxiv url: http://arxiv.org/abs/2110.03106v1
- Date: Wed, 6 Oct 2021 23:44:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 15:27:12.969803
- Title: Multi-Trigger-Key: Towards Multi-Task Privacy Preserving In Deep
Learning
- Title(参考訳): Multi-Trigger-Key:ディープラーニングにおけるマルチタスクプライバシ保護を目指して
- Authors: Ren Wang, Zhe Xu, Alfred Hero
- Abstract要約: 深層学習に基づくマルチタスク分類(MTC)は、顔属性やヘルスケアなどのアプリケーションで広く使われている。
プライバシー保護の目的を達成するために,MTK(Multi-Trigger-Key)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 8.595639956361499
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based Multi-Task Classification (MTC) is widely used in
applications like facial attributes and healthcare that warrant strong privacy
guarantees. In this work, we aim to protect sensitive information in the
inference phase of MTC and propose a novel Multi-Trigger-Key (MTK) framework to
achieve the privacy-preserving objective. MTK associates each secured task in
the multi-task dataset with a specifically designed trigger-key. The true
information can be revealed by adding the trigger-key if the user is
authorized. We obtain such an MTK model by training it with a newly generated
training set. To address the information leakage malaise resulting from
correlations among different tasks, we generalize the training process by
incorporating an MTK decoupling process with a controllable trade-off between
the protective efficacy and the model performance. Theoretical guarantees and
experimental results demonstrate the effectiveness of the privacy protection
without appreciable hindering on the model performance.
- Abstract(参考訳): ディープラーニングベースのマルチタスク分類(MTC)は、強力なプライバシ保証を保証する顔属性やヘルスケアといったアプリケーションで広く使用されている。
本研究では,mtcの推論フェーズにおける機密情報を保護し,プライバシ保護目的を達成するための新しいマルチトリガーキー(mtk)フレームワークを提案する。
MTKは、マルチタスクデータセット内の各セキュアタスクを、特別に設計されたトリガーキーに関連付ける。
ユーザが承認された場合、トリガーキーを追加することで、真の情報を明らかにすることができる。
新たに生成されたトレーニングセットでトレーニングすることで,このようなmtkモデルを得る。
異なるタスク間の相関関係による情報漏えいに対処するため、MTKデカップリングプロセスと保護効果とモデル性能とのトレードオフを制御可能とし、トレーニングプロセスを一般化する。
理論的な保証と実験結果は、モデル性能を損なうことなく、プライバシー保護の有効性を示す。
関連論文リスト
- Low-Latency Privacy-Preserving Deep Learning Design via Secure MPC [31.35072624488929]
セキュアなマルチパーティ計算(MPC)は、プライベート情報をリークすることなく、複数のパーティ間のプライバシ保護計算を容易にする。
本研究は、MPCプロトコルの実行中に不要な通信ラウンドを減らす、低レイテンシな秘密共有ベースのMPC設計を提案する。
論文 参考訳(メタデータ) (2024-07-24T07:01:21Z) - Protecting Privacy Through Approximating Optimal Parameters for Sequence Unlearning in Language Models [37.172662930947446]
言語モデル(LM)は、重大なプライバシーリスクを示す抽出攻撃に対して潜在的に脆弱である。
本稿では,事前学習したLMからターゲットトークンシーケンスを効果的に忘れる新しい未学習手法である,最適パラメータによるプライバシ保護(POP)を提案する。
POPは、9つの分類と4つのダイアログベンチマークにまたがって、保留後の顕著なパフォーマンスを示し、最先端を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2024-06-20T08:12:49Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Differentially Private Weighted Empirical Risk Minimization Procedure and its Application to Outcome Weighted Learning [4.322221694511603]
差分プライバシー(DP)は、データのプライバシー問題に対処するための魅力的なフレームワークである。
DPは、機密データから情報を公開する際に生じるプライバシー損失に数学的に証明可能な境界を提供する。
一般のwERMに対する最初の微分プライベートアルゴリズムを提案し、理論DPを保証する。
論文 参考訳(メタデータ) (2023-07-24T21:03:25Z) - MetaMorphosis: Task-oriented Privacy Cognizant Feature Generation for
Multi-task Learning [6.056197449765416]
本稿ではMetaMorphosisと呼ばれる,深層学習に基づくプライバシー認識機能生成プロセスを提案する。
本稿では,MetaMorphosisが,プライバシー要件を保証し,近年の敵対的学習や普遍的特徴生成方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-13T01:59:07Z) - MASTER: Multi-task Pre-trained Bottlenecked Masked Autoencoders are
Better Dense Retrievers [140.0479479231558]
本研究では,様々な事前学習タスクをマルチタスク事前学習モデル(MASTER)に統合することを目的とする。
MASTERは共有エンコーダのマルチデコーダアーキテクチャを利用して、タスク全体にわたる豊富なセマンティック情報を高密度ベクトルに圧縮する表現ボトルネックを構築することができる。
論文 参考訳(メタデータ) (2022-12-15T13:57:07Z) - Private Multi-Task Learning: Formulation and Applications to Federated
Learning [44.60519521554582]
マルチタスク学習は、ヘルスケア、ファイナンス、IoTコンピューティングなどの分野において、プライバシに敏感なアプリケーションに関係している。
我々は,MTLにおけるクライアントレベルのプライバシの概念を,共同微分プライバシ(JDP),メカニズム設計と分散最適化のための微分プライバシの緩和を通じて形式化する。
そこで我々は,パーソナライズド・フェデレーション・ラーニングの応用を目的とした,平均正規化MLLのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-30T03:37:36Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。