論文の概要: Unmasking Performance Gaps: A Comparative Study of Human Anonymization and Its Effects on Video Anomaly Detection
- arxiv url: http://arxiv.org/abs/2507.14083v1
- Date: Fri, 18 Jul 2025 17:06:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.369136
- Title: Unmasking Performance Gaps: A Comparative Study of Human Anonymization and Its Effects on Video Anomaly Detection
- Title(参考訳): アンマスキング性能ギャップ:人間の匿名化とビデオ異常検出への影響の比較研究
- Authors: Sara Abdulaziz, Egor Bondarev,
- Abstract要約: 本研究では,4つの匿名化手法による異常検出性能の包括的解析を行う。
匿名化UCF-Crimeデータセット上で, MGFN, UR-DMU, BN-WVAD, PEL4VADの4つの異常検出手法を評価する。
実験結果から、匿名化データの下では、異常検出が引き続き有効であることが示されている。
- 参考スコア(独自算出の注目度): 2.4554686192257424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advancements in deep learning have improved anomaly detection in surveillance videos, yet they raise urgent privacy concerns due to the collection of sensitive human data. In this paper, we present a comprehensive analysis of anomaly detection performance under four human anonymization techniques, including blurring, masking, encryption, and avatar replacement, applied to the UCF-Crime dataset. We evaluate four anomaly detection methods, MGFN, UR-DMU, BN-WVAD, and PEL4VAD, on the anonymized UCF-Crime to reveal how each method responds to different obfuscation techniques. Experimental results demonstrate that anomaly detection remains viable under anonymized data and is dependent on the algorithmic design and the learning strategy. For instance, under certain anonymization patterns, such as encryption and masking, some models inadvertently achieve higher AUC performance compared to raw data, due to the strong responsiveness of their algorithmic components to these noise patterns. These results highlight the algorithm-specific sensitivities to anonymization and emphasize the trade-off between preserving privacy and maintaining detection utility. Furthermore, we compare these conventional anonymization techniques with the emerging privacy-by-design solutions, highlighting an often overlooked trade-off between robust privacy protection and utility flexibility. Through comprehensive experiments and analyses, this study provides a compelling benchmark and insights into balancing human privacy with the demands of anomaly detection.
- Abstract(参考訳): ディープラーニングの進歩は、監視ビデオにおける異常検出を改善したが、機密性の高い人間のデータの収集により、プライバシー上の緊急の懸念を提起している。
本稿では,UCF-Crimeデータセットに適用した,ぼかし,マスキング,暗号化,アバター交換を含む4つの匿名化手法による異常検出性能の包括的解析を行う。
匿名化UCF-Crimeを用いて, MGFN, UR-DMU, BN-WVAD, PEL4VADの4つの異常検出手法を評価し, 各手法が異なる難読化手法にどう反応するかを明らかにする。
実験結果から,匿名化データの下でも異常検出は引き続き有効であり,アルゴリズム設計と学習戦略に依存していることが示された。
例えば、暗号化やマスキングなどの特定の匿名化パターンの下では、これらのノイズパターンに対するアルゴリズム的コンポーネントの強い応答性のため、いくつかのモデルは、生データと比較してAUCのパフォーマンスを不注意に向上させる。
これらの結果は、匿名化に対するアルゴリズム固有の感受性を強調し、プライバシ保護と検出ユーティリティのトレードオフを強調する。
さらに、これらの従来の匿名化手法と、新たなプライバシ・バイ・デザインソリューションを比較し、堅牢なプライバシ保護とユーティリティ・フレキシビリティのトレードオフがしばしば見過ごされていることを強調します。
本研究は、総合的な実験と分析を通じて、人間のプライバシーと異常検出の要求のバランスをとるための、魅力的なベンチマークと洞察を提供する。
関連論文リスト
- Exploring Personalized Federated Learning Architectures for Violence Detection in Surveillance Videos [0.0]
都市監視システムにおける暴力的事件を検出するという課題は、ビデオデータの輝かしく多様な性質によって複雑化されている。
本稿では,これらの問題に対処するために,フェデレート・パーソナライズド・ラーニング(Federated Personalized Learning)を用いたターゲット・アプローチを提案する。
本手法は学習モデルを各監視ノードのユニークなデータ特性に適応させ,監視ビデオデータの異種性および非IID特性を効果的に管理する。
論文 参考訳(メタデータ) (2025-04-01T14:47:14Z) - Privacy-Preserving Hybrid Ensemble Model for Network Anomaly Detection: Balancing Security and Data Protection [6.5920909061458355]
本稿では,検出精度とデータ保護の両方に対処するために,プライバシー保護技術を組み込んだハイブリッドアンサンブルモデルを提案する。
我々のモデルは、K-Nearest Neighbors(KNN)、SVM(Support Vector Machines)、XGBoost(XGBoost)、Artificial Neural Networks(ANN)など、いくつかの機械学習アルゴリズムの長所を組み合わせる。
論文 参考訳(メタデータ) (2025-02-13T06:33:16Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Low-Latency Video Anonymization for Crowd Anomaly Detection: Privacy vs. Performance [5.78828936452823]
本研究では,プライバシ保護とリアルタイムビデオ異常検出アプリケーションのための従来の匿名化ソリューションを再検討する。
本稿では,プライバシー保護を強化するために動的調整を施したVAD(LA3D)の軽量適応匿名化を提案する。
実験により, LA3Dは, VADの有効性を著しく低下させることなく, プライバシー匿名化能力を大幅に向上させることができることを示した。
論文 参考訳(メタデータ) (2024-10-24T13:22:33Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Disguise without Disruption: Utility-Preserving Face De-Identification [40.484745636190034]
本研究では,修正データの利用性を確保しつつ,顔画像をシームレスに識別する新しいアルゴリズムであるDisguiseを紹介する。
本手法は, 難読化と非可逆性を最大化するために, 変分機構を用いて生成した合成物を用いて, 描写されたアイデンティティを抽出し置換することを含む。
提案手法を複数のデータセットを用いて広範に評価し,様々な下流タスクにおける従来の手法と比較して,高い非識別率と一貫性を示す。
論文 参考訳(メタデータ) (2023-03-23T13:50:46Z) - A Revealing Large-Scale Evaluation of Unsupervised Anomaly Detection
Algorithms [0.0]
異常検出には、銀行詐欺検知やサイバー脅威検出から機器のメンテナンスや健康モニタリングまで、多くの応用がある。
我々は,最も普及している非教師付き異常検出方法の12点を概観した。
論文 参考訳(メタデータ) (2022-04-21T00:17:12Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Robust Data Hiding Using Inverse Gradient Attention [82.73143630466629]
データ隠蔽タスクでは、異なる耐久性を有するため、カバー画像の各ピクセルを別々に扱う必要がある。
Inverse Gradient Attention (IGA) を用いた新しい深層データ隠蔽方式を提案する。
実証的な実験により、提案モデルが2つの先行するデータセット上で最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2020-11-21T19:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。