論文の概要: Privacy-Preserving Deep Learning Using Deformable Operators for Secure Task Learning
- arxiv url: http://arxiv.org/abs/2404.05828v1
- Date: Mon, 8 Apr 2024 19:46:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-10 18:38:40.003325
- Title: Privacy-Preserving Deep Learning Using Deformable Operators for Secure Task Learning
- Title(参考訳): 安全なタスク学習のための変形可能な演算子を用いたプライバシー保護深層学習
- Authors: Fabian Perez, Jhon Lopez, Henry Arguello,
- Abstract要約: 既存のプライバシー保護方法は、画像暗号化や知覚変換アプローチに依存している。
安全なタスク学習に変形可能な演算子の集合を用いる新しいプライバシ保存フレームワークを提案する。
- 参考スコア(独自算出の注目度): 14.187385349716518
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the era of cloud computing and data-driven applications, it is crucial to protect sensitive information to maintain data privacy, ensuring truly reliable systems. As a result, preserving privacy in deep learning systems has become a critical concern. Existing methods for privacy preservation rely on image encryption or perceptual transformation approaches. However, they often suffer from reduced task performance and high computational costs. To address these challenges, we propose a novel Privacy-Preserving framework that uses a set of deformable operators for secure task learning. Our method involves shuffling pixels during the analog-to-digital conversion process to generate visually protected data. Those are then fed into a well-known network enhanced with deformable operators. Using our approach, users can achieve equivalent performance to original images without additional training using a secret key. Moreover, our method enables access control against unauthorized users. Experimental results demonstrate the efficacy of our approach, showcasing its potential in cloud-based scenarios and privacy-sensitive applications.
- Abstract(参考訳): クラウドコンピューティングとデータ駆動アプリケーションの時代において、機密情報を保護し、データのプライバシを維持し、真に信頼できるシステムを保証することが不可欠である。
その結果,ディープラーニングシステムにおけるプライバシ保護が重要な問題となっている。
既存のプライバシー保護方法は、画像暗号化や知覚変換アプローチに依存している。
しかし、それらはしばしばタスク性能の低下と高い計算コストに悩まされる。
これらの課題に対処するために,変形可能な演算子の集合をセキュアなタスク学習に用いる新しいプライバシ保存フレームワークを提案する。
本手法では,アナログ・デジタル変換プロセス中に画素をシャッフルして視覚的に保護されたデータを生成する。
それらは、変形可能な演算子によって強化されたよく知られたネットワークにフィードされる。
提案手法を用いることで,秘密鍵を用いた追加トレーニングを行なわずに,オリジナル画像と同等のパフォーマンスを達成できる。
さらに,認証されていないユーザに対してアクセス制御を行う方法を提案する。
実験により,クラウドベースのシナリオやプライバシに敏感なアプリケーションにおいて,本手法の有効性が示された。
関連論文リスト
- Secure Visual Data Processing via Federated Learning [2.4374097382908477]
本稿では,大規模ビジュアルデータ処理におけるプライバシ保護ソリューションの必要性に対処する。
本稿では,オブジェクト検出,フェデレーション学習,匿名化を組み合わせた新しい手法を提案する。
私たちのソリューションは、従来の集中型モデルに対して評価されており、精度がわずかにトレードオフされている一方で、プライバシー上のメリットがかなり大きいことを示している。
論文 参考訳(メタデータ) (2025-02-09T09:44:18Z) - Technical Report for the Forgotten-by-Design Project: Targeted Obfuscation for Machine Learning [0.03749861135832072]
本稿では、従来のデータ消去手法と対比して、AIシステム内でのRTBF(Right to be Forgotten)の概念について考察する。
Forgotten by Designは,インスタンス固有の難読化技術を統合した,プライバシ保護のための積極的なアプローチである。
CIFAR-10データセットを用いた実験では,モデル精度を維持しながら,少なくとも1桁のプライバシーリスクを低減できることが示されている。
論文 参考訳(メタデータ) (2025-01-20T15:07:59Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Balancing Innovation and Privacy: Data Security Strategies in Natural Language Processing Applications [3.380276187928269]
本研究では,差分プライバシーに基づく新しいアルゴリズムを導入することにより,自然言語処理(NLP)におけるプライバシ保護に対処する。
差分プライバシー機構を導入することにより、ランダムノイズを付加しながらデータ解析結果の精度と信頼性を確保することができる。
提案アルゴリズムの有効性は、精度(0.89)、精度(0.85)、リコール(0.88)などの性能指標によって実証される。
論文 参考訳(メタデータ) (2024-10-11T06:05:10Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - PrivHAR: Recognizing Human Actions From Privacy-preserving Lens [58.23806385216332]
我々は、人間の行動認識パイプラインに沿って、堅牢な視覚的プライバシー保護を提供するための最適化フレームワークを提案する。
我々のフレームワークは、カメラレンズをパラメータ化して、ビデオの品質を劣化させ、プライバシー特性を抑え、敵の攻撃を防ぎます。
論文 参考訳(メタデータ) (2022-06-08T13:43:29Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。