論文の概要: Privacy of Groups in Dense Street Imagery
- arxiv url: http://arxiv.org/abs/2505.07085v1
- Date: Sun, 11 May 2025 18:16:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.201311
- Title: Privacy of Groups in Dense Street Imagery
- Title(参考訳): デンスストリート画像におけるグループのプライバシー
- Authors: Matt Franchi, Hauke Sandhaus, Madiha Zahrah Choksi, Severin Engelmann, Wendy Ju, Helen Nissenbaum,
- Abstract要約: データ密度の増大と人工知能の進歩により、匿名化されたと思われるデータから有害なグループメンバーシップ推論が可能になることが判明した。
ニューヨーク市で撮影された25,232,608枚のダッシュカム画像において,難読化歩行者によるグループアフィリエイトの推測がいかに容易かを示すため,浸透試験を実施した。
- 参考スコア(独自算出の注目度): 8.285646679507655
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Spatially and temporally dense street imagery (DSI) datasets have grown unbounded. In 2024, individual companies possessed around 3 trillion unique images of public streets. DSI data streams are only set to grow as companies like Lyft and Waymo use DSI to train autonomous vehicle algorithms and analyze collisions. Academic researchers leverage DSI to explore novel approaches to urban analysis. Despite good-faith efforts by DSI providers to protect individual privacy through blurring faces and license plates, these measures fail to address broader privacy concerns. In this work, we find that increased data density and advancements in artificial intelligence enable harmful group membership inferences from supposedly anonymized data. We perform a penetration test to demonstrate how easily sensitive group affiliations can be inferred from obfuscated pedestrians in 25,232,608 dashcam images taken in New York City. We develop a typology of identifiable groups within DSI and analyze privacy implications through the lens of contextual integrity. Finally, we discuss actionable recommendations for researchers working with data from DSI providers.
- Abstract(参考訳): 空間的・時間的に密集した街路画像(DSI)データセットは非有界化されている。
2024年、個々の会社が公道の3兆分の1のユニークな画像を保有した。
DSIのデータストリームは、LyftやWaymoなどの企業がDSIを使って自動運転車のアルゴリズムを訓練し、衝突を分析しているため、成長するのみである。
学術研究者はDSIを利用して都市分析の新しいアプローチを探求する。
DSIプロバイダによる、顔やライセンスプレートのぼやけによる個人のプライバシー保護の善意にもかかわらず、これらの措置は、より広範なプライバシー問題に対処することができない。
本研究では,データ密度の増大と人工知能の進歩により,匿名化されたと思われるデータから有害なグループメンバーシップ推論が可能になることを明らかにする。
ニューヨーク市で撮影された25,232,608枚のダッシュカム画像において,難読化歩行者によるグループアフィリエイトの推測がいかに容易かを示すため,浸透試験を実施した。
我々は、DSI内の識別可能なグループを分類し、文脈整合性のレンズを通してプライバシーへの影響を分析する。
最後に、DSIプロバイダのデータを扱う研究者に対して、実行可能なレコメンデーションについて論じる。
関連論文リスト
- Guarding Digital Privacy: Exploring User Profiling and Security Enhancements [0.12289361708127873]
この記事では、ユーザプロファイリングに関する知識の統合、さまざまなアプローチと関連する課題について検討する。
ユーザデータを共有している2つの企業のレンズと、インドで人気の高い18のAndroidアプリケーションの分析を通じて、この記事はプライバシーの脆弱性を明らかにしている。
本稿では,意思決定木とニューラルネットワークを用いた機械学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-17T10:56:46Z) - SVIA: A Street View Image Anonymization Framework for Self-Driving Applications [18.30159119462861]
自動運転アプリケーションのためのストリートビュー画像匿名化フレームワークを提案する。
SVIAフレームワークは、セマンティックセグメンタ、プライバシに敏感な領域の代替を生成するインペイント、修正された領域をシームレスに縫合するハーモナイザの3つの統合コンポーネントで構成されている。
既存の方法と比較して、SVIAは画像生成の品質とプライバシ保護のトレードオフをはるかに改善している。
論文 参考訳(メタデータ) (2025-01-16T09:05:46Z) - A Synthetic Dataset for Personal Attribute Inference [2.9373912230684565]
LLMはオンラインのテキストから個人情報を正確に推測する能力だ。
個人属性を手動でラベル付けした7800以上のコメントからなる多様な合成データセットであるSynthPAIを生成する。
我々のデータセットを人間による研究で検証し、人間が実際のコメントを区別するタスクにおいて、ランダムな推測をわずかに上回っていることを示す。
論文 参考訳(メタデータ) (2024-06-11T12:50:53Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Person Re-Identification without Identification via Event Anonymization [23.062038973576296]
ディープラーニングは、イベントカメラからのイメージを高い忠実度で再構築することができ、イベントベースのビジョンアプリケーションに対するプライバシーに対する潜在的な脅威を再導入した。
本稿では,プライバシを保護し,人物ReIdのような下流タスクを実行するという2つの目的のために,エンドツーエンドのネットワークアーキテクチャを共同で提案する。
論文 参考訳(メタデータ) (2023-08-08T17:04:53Z) - Wild Face Anti-Spoofing Challenge 2023: Benchmark and Results [73.98594459933008]
顔認証システム(FAS)は、顔認識システムの完全性を保護するための重要なメカニズムである。
この制限は、公開可能なFASデータセットの不足と多様性の欠如に起因する可能性がある。
制約のない環境で収集された大規模で多様なFASデータセットであるWild Face Anti-Spoofingデータセットを紹介した。
論文 参考訳(メタデータ) (2023-04-12T10:29:42Z) - Hiding Visual Information via Obfuscating Adversarial Perturbations [47.315523613407244]
本稿では,データの視覚的プライバシを保護するために,敵対的な視覚情報隠蔽手法を提案する。
具体的には、データの視覚情報を隠蔽する難読化対向摂動を生成する。
認識・分類タスクの実験結果から,提案手法が視覚情報を効果的に隠蔽できることが示唆された。
論文 参考訳(メタデータ) (2022-09-30T08:23:26Z) - A Comprehensive Guide to CAN IDS Data & Introduction of the ROAD Dataset [1.6494191187996927]
Controller Area Networks (CAN) には基本的なセキュリティ特性がなく、簡単に利用することができる。
様々な侵入で車載CANデータを生成することは、ほとんどの研究者にとって手に入らない。
既存のオープンなCAN侵入データセットの包括的なガイドを提示する。
論文 参考訳(メタデータ) (2020-12-29T04:18:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。