論文の概要: Privacy-Preserving Deep Learning Using Deformable Operators for Secure Task Learning
- arxiv url: http://arxiv.org/abs/2404.05828v1
- Date: Mon, 8 Apr 2024 19:46:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-10 18:38:40.003325
- Title: Privacy-Preserving Deep Learning Using Deformable Operators for Secure Task Learning
- Title(参考訳): 安全なタスク学習のための変形可能な演算子を用いたプライバシー保護深層学習
- Authors: Fabian Perez, Jhon Lopez, Henry Arguello,
- Abstract要約: 既存のプライバシー保護方法は、画像暗号化や知覚変換アプローチに依存している。
安全なタスク学習に変形可能な演算子の集合を用いる新しいプライバシ保存フレームワークを提案する。
- 参考スコア(独自算出の注目度): 14.187385349716518
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the era of cloud computing and data-driven applications, it is crucial to protect sensitive information to maintain data privacy, ensuring truly reliable systems. As a result, preserving privacy in deep learning systems has become a critical concern. Existing methods for privacy preservation rely on image encryption or perceptual transformation approaches. However, they often suffer from reduced task performance and high computational costs. To address these challenges, we propose a novel Privacy-Preserving framework that uses a set of deformable operators for secure task learning. Our method involves shuffling pixels during the analog-to-digital conversion process to generate visually protected data. Those are then fed into a well-known network enhanced with deformable operators. Using our approach, users can achieve equivalent performance to original images without additional training using a secret key. Moreover, our method enables access control against unauthorized users. Experimental results demonstrate the efficacy of our approach, showcasing its potential in cloud-based scenarios and privacy-sensitive applications.
- Abstract(参考訳): クラウドコンピューティングとデータ駆動アプリケーションの時代において、機密情報を保護し、データのプライバシを維持し、真に信頼できるシステムを保証することが不可欠である。
その結果,ディープラーニングシステムにおけるプライバシ保護が重要な問題となっている。
既存のプライバシー保護方法は、画像暗号化や知覚変換アプローチに依存している。
しかし、それらはしばしばタスク性能の低下と高い計算コストに悩まされる。
これらの課題に対処するために,変形可能な演算子の集合をセキュアなタスク学習に用いる新しいプライバシ保存フレームワークを提案する。
本手法では,アナログ・デジタル変換プロセス中に画素をシャッフルして視覚的に保護されたデータを生成する。
それらは、変形可能な演算子によって強化されたよく知られたネットワークにフィードされる。
提案手法を用いることで,秘密鍵を用いた追加トレーニングを行なわずに,オリジナル画像と同等のパフォーマンスを達成できる。
さらに,認証されていないユーザに対してアクセス制御を行う方法を提案する。
実験により,クラウドベースのシナリオやプライバシに敏感なアプリケーションにおいて,本手法の有効性が示された。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Balancing Innovation and Privacy: Data Security Strategies in Natural Language Processing Applications [3.380276187928269]
本研究では,差分プライバシーに基づく新しいアルゴリズムを導入することにより,自然言語処理(NLP)におけるプライバシ保護に対処する。
差分プライバシー機構を導入することにより、ランダムノイズを付加しながらデータ解析結果の精度と信頼性を確保することができる。
提案アルゴリズムの有効性は、精度(0.89)、精度(0.85)、リコール(0.88)などの性能指標によって実証される。
論文 参考訳(メタデータ) (2024-10-11T06:05:10Z) - PriPHiT: Privacy-Preserving Hierarchical Training of Deep Neural Networks [44.0097014096626]
エッジデバイスとクラウドサーバの両方でディープラーニングモデルのトレーニングフェーズを実行する方法を提案する。
提案するプライバシ保存方法は,敵の早期出口を利用してエッジのセンシティブなコンテンツを抑制し,タスク関連情報をクラウドに送信する。
論文 参考訳(メタデータ) (2024-08-09T14:33:34Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - PrivacyProber: Assessment and Detection of Soft-Biometric
Privacy-Enhancing Techniques [1.790445868185437]
そこで本研究では, バイオメトリック・プライバシ・エンハンシング技術を用いて, 回復の試みの信頼性について検討する。
プライバシ強化顔画像からソフトバイオメトリック情報を復元するための高レベルフレームワークであるPrivacyProberを提案する。
論文 参考訳(メタデータ) (2022-11-16T12:20:18Z) - PrivHAR: Recognizing Human Actions From Privacy-preserving Lens [58.23806385216332]
我々は、人間の行動認識パイプラインに沿って、堅牢な視覚的プライバシー保護を提供するための最適化フレームワークを提案する。
我々のフレームワークは、カメラレンズをパラメータ化して、ビデオの品質を劣化させ、プライバシー特性を抑え、敵の攻撃を防ぎます。
論文 参考訳(メタデータ) (2022-06-08T13:43:29Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。