論文の概要: Who Can See Through You? Adversarial Shielding Against VLM-Based Attribute Inference Attacks
- arxiv url: http://arxiv.org/abs/2512.18264v1
- Date: Sat, 20 Dec 2025 08:08:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.263484
- Title: Who Can See Through You? Adversarial Shielding Against VLM-Based Attribute Inference Attacks
- Title(参考訳): 誰があなたを通して見ることができるのか?VLMベースの属性推論攻撃に対する敵対的シールド
- Authors: Yucheng Fan, Jiawei Chen, Yu Tian, Zhaoxia Yin,
- Abstract要約: VLMベースの属性推論攻撃は、ソーシャルメディア上で共有された画像から、敵対者が個人属性を推測できるようにする、深刻なプライバシー上の懸念として浮上している。
本稿では,視覚的制約下でのプライバシー抑制とユーティリティ保護を協調的に最適化する新しい保護手法を提案する。
提案手法は, PARを25%以下に効果的に削減し, NPARを88%以上に抑えるとともに, 未確認・言い換えのプライバシー問題に対してよく一般化する。
- 参考スコア(独自算出の注目度): 13.326888254423901
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As vision-language models (VLMs) become widely adopted, VLM-based attribute inference attacks have emerged as a serious privacy concern, enabling adversaries to infer private attributes from images shared on social media. This escalating threat calls for dedicated protection methods to safeguard user privacy. However, existing methods often degrade the visual quality of images or interfere with vision-based functions on social media, thereby failing to achieve a desirable balance between privacy protection and user experience. To address this challenge, we propose a novel protection method that jointly optimizes privacy suppression and utility preservation under a visual consistency constraint. While our method is conceptually effective, fair comparisons between methods remain challenging due to the lack of publicly available evaluation datasets. To fill this gap, we introduce VPI-COCO, a publicly available benchmark comprising 522 images with hierarchically structured privacy questions and corresponding non-private counterparts, enabling fine-grained and joint evaluation of protection methods in terms of privacy preservation and user experience. Building upon this benchmark, experiments on multiple VLMs demonstrate that our method effectively reduces PAR below 25%, keeps NPAR above 88%, maintains high visual consistency, and generalizes well to unseen and paraphrased privacy questions, demonstrating its strong practical applicability for real-world VLM deployments.
- Abstract(参考訳): 視覚言語モデル(VLM)が広く採用されるにつれて、VLMベースの属性推論攻撃は深刻なプライバシー上の懸念として現れ、敵はソーシャルメディア上で共有された画像からプライベート属性を推測することができる。
このエスカレートする脅威は、ユーザーのプライバシーを守るために専用の保護方法を要求する。
しかし、既存の方法では、画像の視覚的品質が低下したり、ソーシャルメディア上の視覚的機能に干渉することが多く、それによってプライバシー保護とユーザーエクスペリエンスのバランスが取れない。
この課題に対処するために,視覚的整合性制約の下で,プライバシーの抑制とユーティリティの保存を協調的に最適化する新しい保護手法を提案する。
提案手法は概念的に有効であるが,評価データセットが公開されていないため,提案手法の公正比較は依然として困難である。
このギャップを埋めるために、VPI-COCOは、階層的に構造化されたプライバシー問題とそれに対応する非私的な問題を含む522のイメージからなる公開ベンチマークであり、プライバシー保護とユーザエクスペリエンスの観点から、保護方法のきめ細かい共同評価を可能にする。
このベンチマークに基づいて、複数のVLMに関する実験により、我々の手法はPARを25%以下に効果的に削減し、NPARを88%以上維持し、高い視覚的整合性を維持し、見つからず、言い換えられるようなプライバシー問題によく適応し、現実世界のVLMデプロイメントに強力な実用的な適用性を示す。
関連論文リスト
- When Privacy Meets Recovery: The Overlooked Half of Surrogate-Driven Privacy Preservation for MLLM Editing [61.80513991207956]
この研究は、さまざまなMLLMシナリオでサロゲート駆動の保護されたデータを復元する方法の課題に焦点を当てている。
私たちはまず、SPPE(Surrogate Privacy Protected Editable)データセットの提供によって、この研究ギャップを埋めます。
MLLM生成編集の忠実さを保ちながら、プライベートコンテンツを確実に再構築する統一的な手法を提案する。
論文 参考訳(メタデータ) (2025-12-08T04:59:03Z) - Beyond Blanket Masking: Examining Granularity for Privacy Protection in Images Captured by Blind and Low Vision Users [23.61740342584077]
リスクの高い個人情報のみを選択的にマスクする、きめ細かいプライバシー保護フレームワークであるFiGPrivを提案する。
提案手法は細粒度セグメンテーションとデータ駆動型リスクスコアリング機構を統合する。
我々は,BIV-Priv-Segデータセットを用いてフレームワークの評価を行い,FiG-Privが+26%の画像コンテンツを保存していることを示す。
論文 参考訳(メタデータ) (2025-08-12T17:56:36Z) - Urania: Differentially Private Insights into AI Use [102.27238986985698]
$Urania$は、クラスタリング、パーティション選択、ヒストグラムベースの要約といったDPツールを活用することによって、エンドツーエンドのプライバシ保護を提供する。
結果は、厳密なユーザのプライバシを維持しながら、意味のある会話の洞察を抽出するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2025-06-05T07:00:31Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - PAC Privacy Preserving Diffusion Models [6.299952353968428]
拡散モデルは、高いプライバシーと視覚的品質の両方で画像を生成することができる。
しかし、特定のデータ属性の民営化において堅牢な保護を確保するといった課題が発生する。
PACプライバシー保護拡散モデル(PAC Privacy Preserving Diffusion Model)を導入する。
論文 参考訳(メタデータ) (2023-12-02T18:42:52Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。