論文の概要: Evaluation of Human Visual Privacy Protection: A Three-Dimensional Framework and Benchmark Dataset
- arxiv url: http://arxiv.org/abs/2507.13981v1
- Date: Fri, 18 Jul 2025 14:43:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.325286
- Title: Evaluation of Human Visual Privacy Protection: A Three-Dimensional Framework and Benchmark Dataset
- Title(参考訳): 人間の視覚的プライバシー保護の評価:3次元フレームワークとベンチマークデータセット
- Authors: Sara Abdulaziz, Giacomo D'Amicantonio, Egor Bondarev,
- Abstract要約: 本稿では,3次元の視覚的プライバシ保護手法(プライバシ,ユーティリティ,実用性)を評価するための枠組みを提案する。
HR-VISPRは、バイオメトリック、ソフトバイオメトリック、非バイオメトリックラベルを備えた、公開可能な人間中心のデータセットで、解釈可能なプライバシメトリックをトレーニングする。
- 参考スコア(独自算出の注目度): 2.184775414778289
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in AI-powered surveillance have intensified concerns over the collection and processing of sensitive personal data. In response, research has increasingly focused on privacy-by-design solutions, raising the need for objective techniques to evaluate privacy protection. This paper presents a comprehensive framework for evaluating visual privacy-protection methods across three dimensions: privacy, utility, and practicality. In addition, it introduces HR-VISPR, a publicly available human-centric dataset with biometric, soft-biometric, and non-biometric labels to train an interpretable privacy metric. We evaluate 11 privacy protection methods, ranging from conventional techniques to advanced deep-learning methods, through the proposed framework. The framework differentiates privacy levels in alignment with human visual perception, while highlighting trade-offs between privacy, utility, and practicality. This study, along with the HR-VISPR dataset, serves as an insightful tool and offers a structured evaluation framework applicable across diverse contexts.
- Abstract(参考訳): AIによる監視の最近の進歩は、機密性の高い個人情報の収集と処理に対する懸念を強めている。
これに対し、研究はプライバシ・バイ・デザインのソリューションに重点を置いており、プライバシ保護を評価する客観的技術の必要性が高まっている。
本稿では,3次元の視覚的プライバシ保護手法(プライバシ,ユーティリティ,実用性)を評価するための包括的枠組みを提案する。
さらにHR-VISPRは、バイオメトリック、ソフトバイオメトリック、非バイオメトリックラベルを備えた、公開可能な人間中心のデータセットで、解釈可能なプライバシメトリックをトレーニングする。
提案手法を用いて,従来の手法から高度なディープラーニング手法まで,11のプライバシ保護手法を評価する。
このフレームワークは、人間の視覚的知覚に合わせてプライバシーレベルを区別し、プライバシ、ユーティリティ、実用性の間のトレードオフを強調している。
本研究はHR-VISPRデータセットとともに、洞察に富んだツールとして機能し、さまざまなコンテキストに適用可能な構造化評価フレームワークを提供する。
関連論文リスト
- Image Privacy Protection: A Survey [32.020322218775526]
画像は、重要なコミュニケーション媒体として機能し、キーポイントの迅速な理解を容易にする視覚的に係わるフォーマットで情報を提示する。
適切に管理されていない場合、この情報は個人的利益のために搾取に脆弱であり、プライバシー権やその他の法的権利を侵害する可能性がある。
既存のレビューは特定のシナリオによって分類されるか、特定のプライバシー目的によって分類される傾向がある。
論文 参考訳(メタデータ) (2024-12-05T08:09:25Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Centering Policy and Practice: Research Gaps around Usable Differential Privacy [12.340264479496375]
我々は、差分プライバシーは理論上はクリーンな定式化であるが、実際は重大な課題を提起していると論じている。
差分プライバシーの約束と現実世界のユーザビリティのギャップを埋めるために、研究者と実践者は協力しなければなりません。
論文 参考訳(メタデータ) (2024-06-17T21:32:30Z) - Synergizing Privacy and Utility in Data Analytics Through Advanced Information Theorization [2.28438857884398]
本稿では,高次元画像データに適したノイズ注入技術,ロバストな特徴抽出のための変分オートエンコーダ(VAE),構造化データプライバシに最適化された期待最大化(EM)アプローチの3つの高度なアルゴリズムを紹介する。
本手法は,機密属性と変換データ間の相互情報を著しく低減し,プライバシーを向上する。
この研究は、さまざまなデータタイプにまたがってプライバシ保護アルゴリズムをデプロイするための柔軟で効果的な戦略を提供することによって、この分野に貢献する。
論文 参考訳(メタデータ) (2024-04-24T22:58:42Z) - A Summary of Privacy-Preserving Data Publishing in the Local Setting [0.6749750044497732]
統計開示制御は、機密情報を匿名化して暴露するリスクを最小限にすることを目的としている。
マイクロデータの復号化に使用される現在のプライバシ保存技術について概説し、様々な開示シナリオに適したプライバシ対策を掘り下げ、情報損失と予測性能の指標を評価する。
論文 参考訳(メタデータ) (2023-12-19T04:23:23Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - PrivacyProber: Assessment and Detection of Soft-Biometric
Privacy-Enhancing Techniques [1.790445868185437]
そこで本研究では, バイオメトリック・プライバシ・エンハンシング技術を用いて, 回復の試みの信頼性について検討する。
プライバシ強化顔画像からソフトバイオメトリック情報を復元するための高レベルフレームワークであるPrivacyProberを提案する。
論文 参考訳(メタデータ) (2022-11-16T12:20:18Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。