論文の概要: Beyond Blanket Masking: Examining Granularity for Privacy Protection in Images Captured by Blind and Low Vision Users
- arxiv url: http://arxiv.org/abs/2508.09245v1
- Date: Tue, 12 Aug 2025 17:56:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.651284
- Title: Beyond Blanket Masking: Examining Granularity for Privacy Protection in Images Captured by Blind and Low Vision Users
- Title(参考訳): ブランケットのマスキングを超えて:ブラインドとロービジョンのユーザーが捉えた画像のプライバシー保護のための粒度を調べる
- Authors: Jeffri Murrugarra-LLerena, Haoran Niu, K. Suzanne Barber, Hal Daumé III, Yang Trista Cao, Paola Cascante-Bonilla,
- Abstract要約: リスクの高い個人情報のみを選択的にマスクする、きめ細かいプライバシー保護フレームワークであるFiGPrivを提案する。
提案手法は細粒度セグメンテーションとデータ駆動型リスクスコアリング機構を統合する。
我々は,BIV-Priv-Segデータセットを用いてフレームワークの評価を行い,FiG-Privが+26%の画像コンテンツを保存していることを示す。
- 参考スコア(独自算出の注目度): 23.61740342584077
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As visual assistant systems powered by visual language models (VLMs) become more prevalent, concerns over user privacy have grown, particularly for blind and low vision users who may unknowingly capture personal private information in their images. Existing privacy protection methods rely on coarse-grained segmentation, which uniformly masks entire private objects, often at the cost of usability. In this work, we propose FiGPriv, a fine-grained privacy protection framework that selectively masks only high-risk private information while preserving low-risk information. Our approach integrates fine-grained segmentation with a data-driven risk scoring mechanism. We evaluate our framework using the BIV-Priv-Seg dataset and show that FiG-Priv preserves +26% of image content, enhancing the ability of VLMs to provide useful responses by 11% and identify the image content by 45%, while ensuring privacy protection. Project Page: https://artcs1.github.io/VLMPrivacy/
- Abstract(参考訳): 視覚言語モデル(VLM)を利用した視覚アシスタントシステムが普及するにつれて、ユーザのプライバシに対する懸念が高まっている。
既存のプライバシ保護手法は、大きめのセグメンテーションに依存している。
本研究では,低リスク情報を保護しつつ,高リスクな個人情報のみを選択的にマスキングする,きめ細かいプライバシー保護フレームワークであるFiGPrivを提案する。
提案手法は細粒度セグメンテーションとデータ駆動型リスクスコアリング機構を統合する。
筆者らは,BIV-Priv-Segデータセットを用いて,FiG-Privが+26%のイメージコンテンツを保存し,VLMが有効応答を11%向上し,画像コンテンツを45%向上させ,プライバシー保護を確保した。
Project Page: https://artcs1.github.io/VLMPrivacy/
関連論文リスト
- Privacy-Preserving in Connected and Autonomous Vehicles Through Vision to Text Transformation [0.9831489366502302]
本稿では,フィードバックベース強化学習(RL)と視覚言語モデル(VLM)を活用した,新たなプライバシ保護フレームワークを提案する。
イメージを意味論的に等価なテキスト記述に変換し、視覚的プライバシが保持されている間にシーン関連情報が保持されることを保証する。
評価結果は,プライバシ保護とテキスト品質の両方において,大幅な改善が見られた。
論文 参考訳(メタデータ) (2025-06-18T20:02:24Z) - Multi-P$^2$A: A Multi-perspective Benchmark on Privacy Assessment for Large Vision-Language Models [65.2761254581209]
LVLM(Large Vision-Language Models)21個のオープンソースと2個のクローズドソースのプライバシ保護機能の評価を行った。
Multi-P$2$Aに基づいて、21のオープンソースと2つのクローズドソースLVLMのプライバシ保護機能を評価する。
以上の結果から,現在のLVLMは一般にプライバシー侵害のリスクが高いことが明らかとなった。
論文 参考訳(メタデータ) (2024-12-27T07:33:39Z) - Image Privacy Protection: A Survey [32.020322218775526]
画像は、重要なコミュニケーション媒体として機能し、キーポイントの迅速な理解を容易にする視覚的に係わるフォーマットで情報を提示する。
適切に管理されていない場合、この情報は個人的利益のために搾取に脆弱であり、プライバシー権やその他の法的権利を侵害する可能性がある。
既存のレビューは特定のシナリオによって分類されるか、特定のプライバシー目的によって分類される傾向がある。
論文 参考訳(メタデータ) (2024-12-05T08:09:25Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - BIV-Priv-Seg: Locating Private Content in Images Taken by People With Visual Impairments [25.365045519494874]
BIV-Priv-Segは、プライベートコンテンツを表示する視覚障害を持つ人々から生まれた最初のデータセットである。
16のプライベートオブジェクトカテゴリ用のセグメンテーションアノテーションを備えた1,028のイメージが含まれている。
我々は、データセット内のプライベートコンテンツを特定するために、最新のモデルの性能を評価する。
論文 参考訳(メタデータ) (2024-07-25T17:57:48Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。