論文の概要: Secure Visual Data Processing via Federated Learning
- arxiv url: http://arxiv.org/abs/2502.06889v1
- Date: Sun, 09 Feb 2025 09:44:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:07:52.598059
- Title: Secure Visual Data Processing via Federated Learning
- Title(参考訳): フェデレーションラーニングによるセキュアなビジュアルデータ処理
- Authors: Pedro Santos, Tânia Carvalho, Filipe Magalhães, Luís Antunes,
- Abstract要約: 本稿では,大規模ビジュアルデータ処理におけるプライバシ保護ソリューションの必要性に対処する。
本稿では,オブジェクト検出,フェデレーション学習,匿名化を組み合わせた新しい手法を提案する。
私たちのソリューションは、従来の集中型モデルに対して評価されており、精度がわずかにトレードオフされている一方で、プライバシー上のメリットがかなり大きいことを示している。
- 参考スコア(独自算出の注目度): 2.4374097382908477
- License:
- Abstract: As the demand for privacy in visual data management grows, safeguarding sensitive information has become a critical challenge. This paper addresses the need for privacy-preserving solutions in large-scale visual data processing by leveraging federated learning. Although there have been developments in this field, previous research has mainly focused on integrating object detection with either anonymization or federated learning. However, these pairs often fail to address complex privacy concerns. On the one hand, object detection with anonymization alone can be vulnerable to reverse techniques. On the other hand, federated learning may not provide sufficient privacy guarantees. Therefore, we propose a new approach that combines object detection, federated learning and anonymization. Combining these three components aims to offer a robust privacy protection strategy by addressing different vulnerabilities in visual data. Our solution is evaluated against traditional centralized models, showing that while there is a slight trade-off in accuracy, the privacy benefits are substantial, making it well-suited for privacy sensitive applications.
- Abstract(参考訳): 視覚データ管理におけるプライバシの需要が増大するにつれて、機密情報の保護が重要な課題となっている。
本稿では,フェデレート学習を活用することで,大規模ビジュアルデータ処理におけるプライバシ保護ソリューションの必要性に対処する。
この分野では開発が進んでいるが、従来の研究では、オブジェクト検出と匿名化とフェデレーション学習の統合に重点を置いてきた。
しかし、これらのペアは複雑なプライバシー問題に対処できないことが多い。
一方、匿名化のみによるオブジェクト検出は、リバーステクニックに対して脆弱である。
一方、連合学習は十分なプライバシー保証を提供しない可能性がある。
そこで本研究では,オブジェクト検出,フェデレーション学習,匿名化を組み合わせた新しい手法を提案する。
これら3つのコンポーネントを組み合わせることで、視覚データのさまざまな脆弱性に対処することで、堅牢なプライバシ保護戦略の提供を目指している。
我々のソリューションは、従来の集中型モデルに対して評価されており、精度がわずかにトレードオフされているものの、プライバシーの利点はかなりあり、プライバシーに敏感なアプリケーションに適していることを示している。
関連論文リスト
- Privacy-Preserving Deep Learning Using Deformable Operators for Secure Task Learning [14.187385349716518]
既存のプライバシー保護方法は、画像暗号化や知覚変換アプローチに依存している。
安全なタスク学習に変形可能な演算子の集合を用いる新しいプライバシ保存フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-08T19:46:20Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Vision Through the Veil: Differential Privacy in Federated Learning for
Medical Image Classification [15.382184404673389]
医療におけるディープラーニングアプリケーションの普及は、さまざまな機関にデータ収集を求める。
プライバシー保護メカニズムは、データが自然に敏感である医療画像解析において最重要である。
本研究は,プライバシ保護技術である差分プライバシを,医用画像分類のための統合学習フレームワークに統合することの必要性に対処する。
論文 参考訳(メタデータ) (2023-06-30T16:48:58Z) - On the Privacy Effect of Data Enhancement via the Lens of Memorization [20.63044895680223]
我々は,記憶化という新たな視点からプライバシを調査することを提案する。
記憶のレンズを通して、以前デプロイされたMIAは、より高いプライバシーリスクを持つサンプルを特定する可能性が低いため、誤解を招く結果をもたらすことがわかった。
一般化ギャップとプライバシリークは, これまでの結果に比べて相関が低いことを示す。
論文 参考訳(メタデータ) (2022-08-17T13:02:17Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Privacy-preserving Object Detection [52.77024349608834]
我々は,COCOにおけるオブジェクト検出において,顔のぼやけによるデータセットの匿名化と,性別や肌のトーン次元に沿ったバランスの取れた顔の交換は,プライバシを保ち,偏りを部分的に保ちながらオブジェクト検出性能を維持することができることを示した。
論文 参考訳(メタデータ) (2021-03-11T10:34:54Z) - Differentially private cross-silo federated learning [16.38610531397378]
厳密なプライバシは、分散機械学習において最重要事項である。
本稿では,いわゆるクロスサイロ・フェデレーション・ラーニング・セッティングにおいて,加算準同型セキュア和プロトコルと差分プライバシーを併用する。
提案手法により,非分散設定に匹敵する予測精度が得られることを示す。
論文 参考訳(メタデータ) (2020-07-10T18:15:10Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。