論文の概要: Balancing Privacy and Action Performance: A Penalty-Driven Approach to Image Anonymization
- arxiv url: http://arxiv.org/abs/2504.14301v1
- Date: Sat, 19 Apr 2025 13:52:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 01:33:29.110368
- Title: Balancing Privacy and Action Performance: A Penalty-Driven Approach to Image Anonymization
- Title(参考訳): プライバシとアクションパフォーマンスのバランスをとる - 画像匿名化に対するペナルティ駆動アプローチ
- Authors: Nazia Aslam, Kamal Nasrollahi,
- Abstract要約: ユーティリティブランチからの罰則を用いて匿名化を最適化するプライバシー保護画像匿名化手法を提案する。
我々は、機能ベースのペナルティスキームを初めて導入し、アクション機能のみをコントロールし、プライベート属性の匿名化を自由にします。
- 参考スコア(独自算出の注目度): 8.874765152344468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid development of video surveillance systems for object detection, tracking, activity recognition, and anomaly detection has revolutionized our day-to-day lives while setting alarms for privacy concerns. It isn't easy to strike a balance between visual privacy and action recognition performance in most computer vision models. Is it possible to safeguard privacy without sacrificing performance? It poses a formidable challenge, as even minor privacy enhancements can lead to substantial performance degradation. To address this challenge, we propose a privacy-preserving image anonymization technique that optimizes the anonymizer using penalties from the utility branch, ensuring improved action recognition performance while minimally affecting privacy leakage. This approach addresses the trade-off between minimizing privacy leakage and maintaining high action performance. The proposed approach is primarily designed to align with the regulatory standards of the EU AI Act and GDPR, ensuring the protection of personally identifiable information while maintaining action performance. To the best of our knowledge, we are the first to introduce a feature-based penalty scheme that exclusively controls the action features, allowing freedom to anonymize private attributes. Extensive experiments were conducted to validate the effectiveness of the proposed method. The results demonstrate that applying a penalty to anonymizer from utility branch enhances action performance while maintaining nearly consistent privacy leakage across different penalty settings.
- Abstract(参考訳): オブジェクト検出、トラッキング、アクティビティ認識、異常検出のためのビデオ監視システムの急速な発展は、私たちの日々の生活に革命をもたらした。
ほとんどのコンピュータビジョンモデルでは、視覚的プライバシと行動認識性能のバランスを取るのは容易ではありません。
パフォーマンスを犠牲にすることなくプライバシを保護することは可能か?
マイナーなプライバシの強化さえも、パフォーマンスの大幅な低下につながる可能性があるからだ。
この課題に対処するために、ユーティリティブランチからの罰則を用いて匿名化を最適化し、プライバシー漏洩を最小限に抑えつつ、行動認識性能を向上させるプライバシー保護画像匿名化手法を提案する。
このアプローチは、プライバシリークを最小限に抑えることと、高いアクションパフォーマンスを維持することのトレードオフに対処する。
提案されたアプローチは、主にEU AI ActとGDPRの規制基準に準拠し、アクションパフォーマンスを維持しながら個人識別可能な情報の保護を保証するように設計されている。
私たちの知る限りでは、私たちは、アクション機能のみをコントロールし、プライベート属性を匿名化できる機能ベースのペナルティスキームを最初に導入しました。
提案手法の有効性を検証するため, 広範囲な実験を行った。
その結果、ユーティリティブランチから匿名化にペナルティを適用することで、さまざまなペナルティ設定でほぼ一貫したプライバシリークを維持しながら、アクションパフォーマンスが向上することが示された。
関連論文リスト
- Facial Expression Recognition with Controlled Privacy Preservation and Feature Compensation [24.619279669211842]
顔表情認識(FER)システムは、機密情報の潜在的な暴露により、重要なプライバシー上の懸念を生じさせる。
本稿では,FER機能を保ちながら識別情報を除去する手法を提案する。
プライバシを損なうことなく,パフォーマンスを最適化する制御されたプライバシ強化機構とタスク関連機能を強化する機能補償機構を導入する。
論文 参考訳(メタデータ) (2024-11-29T23:12:38Z) - Low-Latency Video Anonymization for Crowd Anomaly Detection: Privacy vs. Performance [5.78828936452823]
本研究では,プライバシ保護とリアルタイムビデオ異常検出アプリケーションのための従来の匿名化ソリューションを再検討する。
本稿では,プライバシー保護を強化するために動的調整を施したVAD(LA3D)の軽量適応匿名化を提案する。
実験により, LA3Dは, VADの有効性を著しく低下させることなく, プライバシー匿名化能力を大幅に向上させることができることを示した。
論文 参考訳(メタデータ) (2024-10-24T13:22:33Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - PrivHAR: Recognizing Human Actions From Privacy-preserving Lens [58.23806385216332]
我々は、人間の行動認識パイプラインに沿って、堅牢な視覚的プライバシー保護を提供するための最適化フレームワークを提案する。
我々のフレームワークは、カメラレンズをパラメータ化して、ビデオの品質を劣化させ、プライバシー特性を抑え、敵の攻撃を防ぎます。
論文 参考訳(メタデータ) (2022-06-08T13:43:29Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。