論文の概要: EgoPrivacy: What Your First-Person Camera Says About You?
- arxiv url: http://arxiv.org/abs/2506.12258v1
- Date: Fri, 13 Jun 2025 22:19:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.605157
- Title: EgoPrivacy: What Your First-Person Camera Says About You?
- Title(参考訳): EgoPrivacy:最初のパーソンカメラがあなたについて何を言っているか
- Authors: Yijiang Li, Genpei Zhang, Jiacheng Cheng, Yi Li, Xiaojun Shan, Dashan Gao, Jiancheng Lyu, Yuan Li, Ning Bi, Nuno Vasconcelos,
- Abstract要約: EgoPrivacyは、エゴセントリックなビジョンにおけるプライバシーリスクの包括的な評価のための、最初の大規模なベンチマークである。
本研究では,エゴ・ツー・エクソ検索を外部中心の動画プールから活用し,人口プライバシー攻撃の有効性を高める新たな攻撃戦略であるRetrieval-Augmented Attackを提案する。
- 参考スコア(独自算出の注目度): 43.68977895024147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the rapid proliferation of wearable cameras has raised significant concerns about egocentric video privacy, prior work has largely overlooked the unique privacy threats posed to the camera wearer. This work investigates the core question: How much privacy information about the camera wearer can be inferred from their first-person view videos? We introduce EgoPrivacy, the first large-scale benchmark for the comprehensive evaluation of privacy risks in egocentric vision. EgoPrivacy covers three types of privacy (demographic, individual, and situational), defining seven tasks that aim to recover private information ranging from fine-grained (e.g., wearer's identity) to coarse-grained (e.g., age group). To further emphasize the privacy threats inherent to egocentric vision, we propose Retrieval-Augmented Attack, a novel attack strategy that leverages ego-to-exo retrieval from an external pool of exocentric videos to boost the effectiveness of demographic privacy attacks. An extensive comparison of the different attacks possible under all threat models is presented, showing that private information of the wearer is highly susceptible to leakage. For instance, our findings indicate that foundation models can effectively compromise wearer privacy even in zero-shot settings by recovering attributes such as identity, scene, gender, and race with 70-80% accuracy. Our code and data are available at https://github.com/williamium3000/ego-privacy.
- Abstract(参考訳): ウェアラブルカメラの急激な普及は、エゴセントリックなビデオプライバシーに対する大きな懸念を引き起こしている。
この研究は、カメラ装着者に関するプライバシー情報を、ファーストパーソナライズされたビュービデオからどれだけ推測できるかという、中核的な疑問を調査する。
EgoPrivacyは、エゴセントリックなビジョンにおけるプライバシーリスクの総合評価のための、最初の大規模ベンチマークである。
EgoPrivacyは、細粒度(例えば、着用者の身元)から粗粒度(例えば、年齢グループ)まで、個人情報の回収を目的とした7つのタスクを定義している。
我々は、エゴセントリックなビジョンに固有のプライバシーの脅威をさらに強調するため、エゴセントリックなビデオの外部プールからのエゴ・ツー・エクソ検索を活用して、プライバシー攻撃の有効性を高める新たな攻撃戦略であるRetrieval-Augmented Attackを提案する。
全ての脅威モデルの下で起こりうる異なる攻撃について、広範囲に比較し、着用者の個人情報が漏洩しやすいことを示す。
例えば, 基本モデルは, 同一性, シーン, 性別, 人種などの属性を70~80%の精度で復元することにより, ゼロショット設定においても, 着用者のプライバシーを効果的に侵害することができることを示す。
私たちのコードとデータはhttps://github.com/williamium3000/ego-privacy.comで公開されています。
関連論文リスト
- PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - SHAN: Object-Level Privacy Detection via Inference on Scene Heterogeneous Graph [5.050631286347773]
プライバシオブジェクト検出は、画像内のプライベートオブジェクトを正確に見つけることを目的としている。
既存の手法は、精度、一般化、解釈可能性の重大な欠陥に悩まされている。
本稿では、画像からシーン異質グラフを構成するモデルであるSHAN(Scene Heterogeneous Graph Attention Network)を提案する。
論文 参考訳(メタデータ) (2024-03-14T08:32:14Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Fairly Private: Investigating The Fairness of Visual Privacy
Preservation Algorithms [1.5293427903448025]
本稿では,一般的に使用されている視覚的プライバシ保護アルゴリズムの妥当性について検討する。
PubFigデータセットの実験は、提供されたプライバシ保護がグループ間で不平等であることを明確に示している。
論文 参考訳(メタデータ) (2023-01-12T13:40:38Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Privid: Practical, Privacy-Preserving Video Analytics Queries [6.7897713298300335]
本稿では,ビデオ分析における差分プライバシー(DP)の新たな概念として,$(rho,K,epsilon)$-event-duration Privacyを提案する。
プライビッドは,非私的システムの79~99%以内のアキュラシーを達成している。
論文 参考訳(メタデータ) (2021-06-22T22:25:08Z) - FoggySight: A Scheme for Facial Lookup Privacy [8.19666118455293]
ソーシャルメディアにアップロードされる前に、相手の事例文献から学んだ教訓を適用して、プライバシー保護の方法で顔写真を修正するソリューションを提案し、評価します。
f foggysightの核となる機能はコミュニティ保護戦略であり、ユーザがプライバシーの保護者として行動することで、敵の機械学習アルゴリズムによって生成されたデコイ写真をアップロードする。
我々は、このスキームのさまざまな設定を調査し、未知の内部構造を持つ顔認識サービスを含む、顔のプライバシー保護を可能にすることを見出します。
論文 参考訳(メタデータ) (2020-12-15T19:57:18Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。