論文の概要: Privacy Blur: Quantifying Privacy and Utility for Image Data Release
- arxiv url: http://arxiv.org/abs/2512.16086v1
- Date: Thu, 18 Dec 2025 02:01:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.879854
- Title: Privacy Blur: Quantifying Privacy and Utility for Image Data Release
- Title(参考訳): プライバシブラー - 画像データリリースにおけるプライバシとユーティリティの定量化
- Authors: Saeed Mahloujifar, Narine Kokhlikyan, Chuan Guo, Kamalika Chaudhuri,
- Abstract要約: ガウス的曖昧化の実践的実装は、プライバシーを破るのに十分な可逆性を持っていることを示す。
私たちは、他の3つの難読化アルゴリズムによって提供されるプライバシーとユーティリティのトレードオフを詳しく見ていきます。
ピクセル化とノイズ付加は、多くのコンピュータビジョンタスクのプライバシとユーティリティの両方を提供する。
- 参考スコア(独自算出の注目度): 48.64095568151945
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image data collected in the wild often contains private information such as faces and license plates, and responsible data release must ensure that this information stays hidden. At the same time, released data should retain its usefulness for model-training. The standard method for private information obfuscation in images is Gaussian blurring. In this work, we show that practical implementations of Gaussian blurring are reversible enough to break privacy. We then take a closer look at the privacy-utility tradeoffs offered by three other obfuscation algorithms -- pixelization, pixelization and noise addition (DP-Pix), and cropping. Privacy is evaluated by reversal and discrimination attacks, while utility by the quality of the learnt representations when the model is trained on data with obfuscated faces. We show that the most popular industry-standard method, Gaussian blur is the least private of the four -- being susceptible to reversal attacks in its practical low-precision implementations. In contrast, pixelization and pixelization plus noise addition, when used at the right level of granularity, offer both privacy and utility for a number of computer vision tasks. We make our proposed methods together with suggested parameters available in a software package called Privacy Blur.
- Abstract(参考訳): 野生で収集された画像データは、しばしば顔やナンバープレートなどのプライベート情報を含んでいる。
同時に、リリースされたデータは、モデルのトレーニングに有用であることを維持する必要がある。
画像における私的情報の難読化の標準的な方法はガウス的ぼかしである。
本研究では,ガウス的曖昧化の実践的実装は,プライバシーを損なうのに十分な可逆性を示す。
次に、他の3つの難読化アルゴリズム(ピクセル化、ピクセル化、ノイズ追加(DP-Pix)、トリミング)によって提供されるプライバシーとユーティリティのトレードオフを詳しく見ていきます。
プライバシは反転攻撃と差別攻撃によって評価され、モデルは難解な顔を持つデータに基づいてトレーニングされる場合、学習した表現の品質によって有効である。
もっとも一般的な業界標準の手法であるガウスのぼかしは、4つの中では最小のプライベートであり、実用的低精度実装におけるリバーサルアタックの影響を受けやすいことを示している。
対照的に、ピクセル化とピクセル化とノイズ付加は、適切な粒度で使用すると、多くのコンピュータビジョンタスクのプライバシとユーティリティの両方を提供する。
提案手法は,プライバシブラーと呼ばれるソフトウェアパッケージで利用可能なパラメータと組み合わせて提案する。
関連論文リスト
- Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - On the Design of Privacy-Aware Cameras: a Study on Deep Neural Networks [0.7646713951724011]
本稿では, カメラの歪みがデータ保護に及ぼす影響について検討する。
ライセンスプレート番号などの個人情報を抽出できないプライバシ対応カメラを構築する。
同時に、歪み画像から有用な非感度データを抽出できることを保証します。
論文 参考訳(メタデータ) (2022-08-24T08:45:31Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Privacy Enhancement for Cloud-Based Few-Shot Learning [4.1579007112499315]
クラウドなど,信頼できない環境における数ショット学習のプライバシ向上について検討する。
本稿では,共同損失によるプライバシー保護表現を学習する手法を提案する。
実証的な結果は、プライバシが強化された数発の学習において、プライバシとパフォーマンスのトレードオフをどのように交渉できるかを示している。
論文 参考訳(メタデータ) (2022-05-10T18:48:13Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z) - Privacy-Preserving Image Classification in the Local Setting [17.375582978294105]
ローカル微分プライバシ(LDP)は、データ所有者がランダムにインプットを摂動させ、リリース前にデータの妥当な削除を可能にする、有望なソリューションを提供する。
本稿では、データ所有者が画像を保持し、不信なデータ利用者が機械学習モデルにこれらの画像を入力として適合させたいという、双方向のイメージ分類問題について考察する。
本稿では,拡張性のある領域サイズで画像表現を生成する,教師付き画像特徴抽出器 DCAConv を提案する。
論文 参考訳(メタデータ) (2020-02-09T01:25:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。