論文の概要: Beyond Pixels: Semantic-aware Typographic Attack for Geo-Privacy Protection
- arxiv url: http://arxiv.org/abs/2511.12575v1
- Date: Sun, 16 Nov 2025 12:27:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.384799
- Title: Beyond Pixels: Semantic-aware Typographic Attack for Geo-Privacy Protection
- Title(参考訳): 位置情報保護のためのセマンティック・アウェア・タイポグラフィー・アタック
- Authors: Jiayi Zhu, Yihao Huang, Yue Cao, Xiaojun Jia, Qing Guo, Felix Juefei-Xu, Geguang Pu, Bin Wang,
- Abstract要約: 大規模ビジュアル言語モデル(LVLM)は、ソーシャルメディアユーザーの位置情報を直接共有画像から推測し、意図しないプライバシー漏洩を引き起こす。
逆画像摂動は、地理的プライバシー保護の潜在的方向を提供するが、LVLMに対して有効となるためには比較的強い歪みを必要とする。
視覚的コンテンツの外部にテキスト拡張を追加することで、地理的プライバシーを保護するための有望な方向として、偽装攻撃を識別する。
- 参考スコア(独自算出の注目度): 43.65944873827891
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Visual Language Models (LVLMs) now pose a serious yet overlooked privacy threat, as they can infer a social media user's geolocation directly from shared images, leading to unintended privacy leakage. While adversarial image perturbations provide a potential direction for geo-privacy protection, they require relatively strong distortions to be effective against LVLMs, which noticeably degrade visual quality and diminish an image's value for sharing. To overcome this limitation, we identify typographical attacks as a promising direction for protecting geo-privacy by adding text extension outside the visual content. We further investigate which textual semantics are effective in disrupting geolocation inference and design a two-stage, semantics-aware typographical attack that generates deceptive text to protect user privacy. Extensive experiments across three datasets demonstrate that our approach significantly reduces geolocation prediction accuracy of five state-of-the-art commercial LVLMs, establishing a practical and visually-preserving protection strategy against emerging geo-privacy threats.
- Abstract(参考訳): 大規模ビジュアル言語モデル(LVLM)は、ソーシャルメディアユーザーの位置情報を直接共有画像から推測し、意図しないプライバシの漏洩につながるため、深刻なが見落とされたプライバシの脅威を生じさせている。
逆画像摂動は、地理的プライバシー保護のための潜在的方向を提供するが、LVLMに対して比較的強い歪みを必要とするため、視覚的品質が著しく低下し、画像の共有価値が低下する。
この制限を克服するために,画像コンテンツの外部にテキスト拡張を追加することにより,地理的攻撃を地理的プライバシを保護するための有望な方向として認識する。
さらに,テキストのセマンティクスが位置推定を阻害し,ユーザプライバシを保護するために偽テキストを生成する2段階のセマンティクス対応のタイポグラフィーアタックを設計する方法について検討する。
3つのデータセットにわたる大規模な実験により、我々のアプローチは5つの最先端商用LVLMの位置情報予測精度を著しく低下させ、新興の地理プライバシ脅威に対する実用的かつ視覚的に保護する戦略を確立した。
関連論文リスト
- The Double-edged Sword of LLM-based Data Reconstruction: Understanding and Mitigating Contextual Vulnerability in Word-level Differential Privacy Text Sanitization [53.51921540246166]
我々は,言語大モデル (LLM) がDP対応テキストの文脈的脆弱性を活用可能であることを示す。
LLM再建の二重刃剣効果がプライバシーと実用性に与える影響を実験的に明らかにした。
本稿では,データ再構成を後処理のステップとして使用するための推奨事項を提案する。
論文 参考訳(メタデータ) (2025-08-26T12:22:45Z) - GeoShield: Safeguarding Geolocation Privacy from Vision-Language Models via Adversarial Perturbations [48.78781663571235]
VLM(Vision-Language Models)は、パブリック共有画像からユーザの位置を推測し、ジオプライバシーに重大なリスクをもたらす。
実世界のシナリオにおいて,ロバストなジオプライバシー保護のために設計された,新しい敵対的フレームワークであるGeoShieldを提案する。
論文 参考訳(メタデータ) (2025-08-05T08:37:06Z) - SoK: Semantic Privacy in Large Language Models [24.99241770349404]
本稿では,大規模言語モデル(LLM)の入力処理,事前学習,微調整,アライメント段階におけるセマンティックプライバシリスクを分析するライフサイクル中心のフレームワークを提案する。
我々は、鍵攻撃ベクトルを分類し、差分プライバシー、埋め込み暗号化、エッジコンピューティング、未学習などの現在の防御がこれらの脅威にどのように対処しているかを評価する。
セマンティックリークの定量化、マルチモーダル入力の保護、生成品質との非識別性のバランス、プライバシー保護の透明性確保など、オープンな課題の概要をまとめて結論付けます。
論文 参考訳(メタデータ) (2025-06-30T08:08:15Z) - Privacy-Preserving in Connected and Autonomous Vehicles Through Vision to Text Transformation [0.9831489366502302]
本稿では,フィードバックベース強化学習(RL)と視覚言語モデル(VLM)を活用した,新たなプライバシ保護フレームワークを提案する。
イメージを意味論的に等価なテキスト記述に変換し、視覚的プライバシが保持されている間にシーン関連情報が保持されることを保証する。
評価結果は,プライバシ保護とテキスト品質の両方において,大幅な改善が見られた。
論文 参考訳(メタデータ) (2025-06-18T20:02:24Z) - Doxing via the Lens: Revealing Location-related Privacy Leakage on Multi-modal Large Reasoning Models [37.18986847375693]
広告主は、ユーザ生成画像からセンシティブな位置情報を推測することができる。
DoxBenchは、さまざまなプライバシーシナリオを反映した500の現実世界の画像のキュレートされたデータセットである。
本研究は,MLRMにおける推論時プライバシーリスクの再評価の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-04-27T22:26:45Z) - PersGuard: Preventing Malicious Personalization via Backdoor Attacks on Pre-trained Text-to-Image Diffusion Models [51.458089902581456]
特定の画像の悪質なパーソナライズを防ぐ新しいバックドアベースのアプローチであるPersGuardを紹介する。
我々の手法は既存の技術よりも優れており、プライバシーと著作権保護に対するより堅牢なソリューションを提供する。
論文 参考訳(メタデータ) (2025-02-22T09:47:55Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。