論文の概要: AnonyNoise: Anonymizing Event Data with Smart Noise to Outsmart Re-Identification and Preserve Privacy
- arxiv url: http://arxiv.org/abs/2411.16440v1
- Date: Mon, 25 Nov 2024 14:43:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:20:17.030908
- Title: AnonyNoise: Anonymizing Event Data with Smart Noise to Outsmart Re-Identification and Preserve Privacy
- Title(参考訳): AnonyNoise: スマートノイズによるイベントデータの匿名化による再識別とプライバシ保護
- Authors: Katharina Bendig, René Schuster, Nicole Thiemer, Karen Joisten, Didier Stricker,
- Abstract要約: イベントカメラは、人間の解釈が困難で出力が希少であるため、当初は有望な解決策と考えられていた。
近年のディープラーニングの進歩は、ニューラルネットワークが高品質なグレースケールのイメージを再構築し、イベントカメラのデータを使って個人を再識別できることを証明している。
本稿では,人間だけでなくニューラルネットワークによる再同定を防止するための,最初のイベント匿名化パイプラインを提案する。
- 参考スコア(独自算出の注目度): 12.130336423803328
- License:
- Abstract: The increasing capabilities of deep neural networks for re-identification, combined with the rise in public surveillance in recent years, pose a substantial threat to individual privacy. Event cameras were initially considered as a promising solution since their output is sparse and therefore difficult for humans to interpret. However, recent advances in deep learning proof that neural networks are able to reconstruct high-quality grayscale images and re-identify individuals using data from event cameras. In our paper, we contribute a crucial ethical discussion on data privacy and present the first event anonymization pipeline to prevent re-identification not only by humans but also by neural networks. Our method effectively introduces learnable data-dependent noise to cover personally identifiable information in raw event data, reducing attackers' re-identification capabilities by up to 60%, while maintaining substantial information for the performing of downstream tasks. Moreover, our anonymization generalizes well on unseen data and is robust against image reconstruction and inversion attacks. Code: https://github.com/dfki-av/AnonyNoise
- Abstract(参考訳): 近年の公衆監視の高まりと相まって、ディープニューラルネットワークの再識別能力の増大は、個人のプライバシーに重大な脅威をもたらす。
イベントカメラは、出力が希少であるため、人間が解釈することが困難であるため、当初は有望な解決策と考えられていた。
しかし、近年のディープラーニングの進歩は、ニューラルネットワークが高品質のグレースケールのイメージを再構築し、イベントカメラのデータを使って個人を再識別できることを証明している。
本稿では、データプライバシに関する重要な倫理的議論に貢献し、人間だけでなくニューラルネットワークによる再識別を防止するための、最初のイベント匿名化パイプラインを提示する。
提案手法は,学習可能なデータ依存ノイズを導入して生のイベントデータ中の個人識別情報をカバーし,攻撃者の再識別能力を最大60%低減し,下流タスクの実行に有効な情報を維持する。
さらに,この匿名化は画像の復元や逆転攻撃に対して頑健で,目に見えないデータによく当てはまる。
コード:https://github.com/dfki-av/AnonyNoise
関連論文リスト
- Region of Interest Loss for Anonymizing Learned Image Compression [3.0936354370614607]
人間の顔が認識不能になり,人体が検出不能となるような,十分な匿名化を実現する方法を示す。
このアプローチは、ネットワーク越しに機密性の高い匿名化データを送信するのではなく、キャプチャデバイス上の1ステップで圧縮と匿名化を可能にする。
論文 参考訳(メタデータ) (2024-06-09T10:36:06Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Person Re-Identification without Identification via Event Anonymization [23.062038973576296]
ディープラーニングは、イベントカメラからのイメージを高い忠実度で再構築することができ、イベントベースのビジョンアプリケーションに対するプライバシーに対する潜在的な脅威を再導入した。
本稿では,プライバシを保護し,人物ReIdのような下流タスクを実行するという2つの目的のために,エンドツーエンドのネットワークアーキテクチャを共同で提案する。
論文 参考訳(メタデータ) (2023-08-08T17:04:53Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Learnable Privacy-Preserving Anonymization for Pedestrian Images [27.178354411900127]
本稿では,歩行者画像における新たなプライバシー保護匿名化問題について検討する。
認証されたモデルに対する個人識別情報(PII)を保存し、PIIが第三者によって認識されないようにする。
本稿では,全体匿名画像の可逆的生成が可能な共同学習可逆匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-24T07:04:16Z) - Syfer: Neural Obfuscation for Private Data Release [58.490998583666276]
我々は、再識別攻撃から保護するための神経難読化法であるSyferを開発した。
Syferはトレーニングされたレイヤをランダムニューラルネットワークで構成し、元のデータをエンコードする。
エンコードされたデータから診断を予測する能力を維持している。
論文 参考訳(メタデータ) (2022-01-28T20:32:04Z) - Domain Adaptive Egocentric Person Re-identification [10.199631830749839]
ファーストパーソン(エゴセントリック)ビジョンにおける人物の再識別(再ID)は、かなり新しく未知の問題です。
ウェアラブルビデオ録画デバイスの増加に伴い、エゴセントリックなデータがすぐに利用可能になります。
大規模な構造化エゴセントリックデータセットは、人の再識別に大きく欠けている。
論文 参考訳(メタデータ) (2021-03-08T16:19:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。