論文の概要: A Comprehensive Analysis of Information Leakage in Deep Transfer
Learning
- arxiv url: http://arxiv.org/abs/2009.01989v1
- Date: Fri, 4 Sep 2020 02:53:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 01:42:12.040254
- Title: A Comprehensive Analysis of Information Leakage in Deep Transfer
Learning
- Title(参考訳): 深層学習における情報漏洩の包括的解析
- Authors: Cen Chen, Bingzhe Wu, Minghui Qiu, Li Wang, Jun Zhou
- Abstract要約: 本研究では,ディープトランスファー学習におけるプライバシー漏洩の可能性を徹底的に分析する。
我々の知識を最大限に活用するために,我々は,ディープラーニングにおける情報漏洩問題の徹底的な分析を初めて行った。
- 参考スコア(独自算出の注目度): 32.805081239082796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transfer learning is widely used for transferring knowledge from a source
domain to the target domain where the labeled data is scarce. Recently, deep
transfer learning has achieved remarkable progress in various applications.
However, the source and target datasets usually belong to two different
organizations in many real-world scenarios, potential privacy issues in deep
transfer learning are posed. In this study, to thoroughly analyze the potential
privacy leakage in deep transfer learning, we first divide previous methods
into three categories. Based on that, we demonstrate specific threats that lead
to unintentional privacy leakage in each category. Additionally, we also
provide some solutions to prevent these threats. To the best of our knowledge,
our study is the first to provide a thorough analysis of the information
leakage issues in deep transfer learning methods and provide potential
solutions to the issue. Extensive experiments on two public datasets and an
industry dataset are conducted to show the privacy leakage under different deep
transfer learning settings and defense solution effectiveness.
- Abstract(参考訳): 転送学習は、ラベル付きデータが不足しているソースドメインからターゲットドメインへの知識の転送に広く使用される。
近年,深層伝達学習は様々な応用において著しい進歩を遂げている。
しかし、ソースデータセットとターゲットデータセットは、多くの場合、多くの現実世界のシナリオにおいて、2つの異なる組織に属します。
本研究では,ディープトランスファー学習におけるプライバシー漏洩の可能性を徹底的に分析するために,従来の手法を3つのカテゴリに分けた。
それに基づいて、各カテゴリで意図しないプライバシー漏洩につながる特定の脅威を示す。
さらに、これらの脅威を防ぐためのソリューションも提供します。
我々の知識を最大限に活用するために,我々は,深層移動学習法における情報漏洩問題の徹底的な解析を行い,その問題の潜在的な解決策を提供する。
2つの公開データセットと業界データセットに関する大規模な実験を行い、異なる深層移動学習環境下でのプライバシー漏洩と防衛ソリューションの有効性を示す。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Systemization of Knowledge (SoK)- Cross Impact of Transfer Learning in Cybersecurity: Offensive, Defensive and Threat Intelligence Perspectives [25.181087776375914]
本稿では,サイバーセキュリティにおけるトランスファーラーニング応用の包括的調査を行う。
この調査は、サイバーセキュリティにおける重要な問題に対処する上で、トランスファーラーニングの重要性を強調している。
本論文は,コミュニティの注意を必要とする今後の研究の方向性と課題を明らかにする。
論文 参考訳(メタデータ) (2023-09-12T00:26:38Z) - A Comprehensive Survey of Forgetting in Deep Learning Beyond Continual Learning [58.107474025048866]
蓄積とは、以前に獲得した知識の喪失または劣化を指す。
フォッテッティングは、深層学習における様々な研究領域でよく見られる現象である。
論文 参考訳(メタデータ) (2023-07-16T16:27:58Z) - Transferability in Deep Learning: A Survey [80.67296873915176]
知識を習得し再利用する能力は、ディープラーニングにおける伝達可能性として知られている。
本研究は,深層学習における異なる孤立領域と伝達可能性との関係を関連付けるための調査である。
我々はベンチマークとオープンソースライブラリを実装し、転送可能性の観点からディープラーニング手法の公平な評価を可能にする。
論文 参考訳(メタデータ) (2022-01-15T15:03:17Z) - Data-Free Knowledge Transfer: A Survey [13.335198869928167]
知識蒸留(KD)とドメイン適応(DA)が提案され,研究のハイライトとなっている。
どちらも、元のトレーニングデータを持つ十分に訓練されたモデルから有用な情報を転送することを目的としている。
近年,データフリーな知識伝達パラダイムが注目されている。
論文 参考訳(メタデータ) (2021-12-31T03:39:42Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z) - Privacy in Deep Learning: A Survey [16.278779275923448]
多くの分野でのディープラーニングの継続的な進歩は、プロダクションシステムにDeep Neural Networks(DNN)の採用につながっている。
大規模なデータセットと高い計算能力がこれらの進歩の主な貢献者である。
このデータはさまざまな脆弱性によって誤用または漏洩される可能性があるため、プライバシー上の深刻な懸念が生じる。
論文 参考訳(メタデータ) (2020-04-25T23:47:25Z) - Domain Adaption for Knowledge Tracing [65.86619804954283]
本稿では,DAKT問題に対処するための新しい適応型フレームワーク,すなわち知識追跡(AKT)を提案する。
まず,Deep Knowledge Trace(DKT)に基づく教育的特徴(スリップ,推測,質問文など)を取り入れ,優れた知識追跡モデルを得る。
第2の側面として、3つのドメイン適応プロセスを提案し、採用する。まず、ターゲットモデルトレーニングに有用なソースインスタンスを選択するために、自動エンコーダを事前訓練する。
論文 参考訳(メタデータ) (2020-01-14T15:04:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。