論文の概要: The Phantom Menace: Unmasking Privacy Leakages in Vision-Language Models
- arxiv url: http://arxiv.org/abs/2408.01228v2
- Date: Mon, 19 Aug 2024 13:35:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 01:39:16.061155
- Title: The Phantom Menace: Unmasking Privacy Leakages in Vision-Language Models
- Title(参考訳): 幻覚の脅威:視覚・言語モデルにおけるプライバシー漏洩を解き明かす
- Authors: Simone Caldarella, Massimiliano Mancini, Elisa Ricci, Rahaf Aljundi,
- Abstract要約: VLM(Vision-Language Models)は視覚とテキストの理解を統合し、様々なタスクに適している。
これらの機能は、Webからクロールされた大量の未処理データのトレーニングに基づいて構築される。
本稿では,これらの脆弱性が存在するかどうかを,ID漏洩に着目して評価する。
- 参考スコア(独自算出の注目度): 31.166994121531232
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Vision-Language Models (VLMs) combine visual and textual understanding, rendering them well-suited for diverse tasks like generating image captions and answering visual questions across various domains. However, these capabilities are built upon training on large amount of uncurated data crawled from the web. The latter may include sensitive information that VLMs could memorize and leak, raising significant privacy concerns. In this paper, we assess whether these vulnerabilities exist, focusing on identity leakage. Our study leads to three key findings: (i) VLMs leak identity information, even when the vision-language alignment and the fine-tuning use anonymized data; (ii) context has little influence on identity leakage; (iii) simple, widely used anonymization techniques, like blurring, are not sufficient to address the problem. These findings underscore the urgent need for robust privacy protection strategies when deploying VLMs. Ethical awareness and responsible development practices are essential to mitigate these risks.
- Abstract(参考訳): VLM(Vision-Language Models)は、視覚的およびテキスト的理解を組み合わせることで、画像キャプションの生成や、さまざまな領域にわたる視覚的質問への回答など、さまざまなタスクに適している。
しかし、これらの機能は、Webからクロールされた大量の未処理データのトレーニングに基づいて構築されている。
後者には、VLMが記憶し、リークする可能性のある機密情報が含まれており、重要なプライバシー上の懸念を引き起こす可能性がある。
本稿では,これらの脆弱性が存在するかどうかを,ID漏洩に着目して評価する。
私たちの研究は3つの重要な発見につながります。
i)VLMは、視覚言語アライメント及び微調整用データの使用時であっても、識別情報を漏洩する。
(二)身元漏洩にはほとんど影響しない。
(三)曖昧化のようにシンプルで広く用いられる匿名化技術は、この問題に対処するには不十分である。
これらの知見は、VLMをデプロイする際の堅牢なプライバシ保護戦略の緊急の必要性を浮き彫りにした。
倫理的認識と責任ある開発プラクティスは、これらのリスクを軽減するために不可欠です。
関連論文リスト
- Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Privacy-Aware Visual Language Models [16.272314073324626]
本稿では,プライバシに敏感な情報を扱うVisual Language Modelの理解を深めることを目的としている。
パスポートや指紋などの8つの機密カテゴリの画像を含む新しいベンチマークであるPrivBenchを導入する。
このベンチマークで10の最先端のVLMを評価し、一般的にはプライバシの理解が限定されていることを観察し、モデル改善のための重要な領域を強調した。
論文 参考訳(メタデータ) (2024-05-27T17:59:25Z) - Anonymization Prompt Learning for Facial Privacy-Preserving Text-to-Image Generation [56.46932751058042]
我々は、テキストから画像への拡散モデルのための学習可能なプロンプトプレフィックスをトレーニングし、匿名化された顔のアイデンティティを生成するよう強制する。
実験では,非同一性固有の画像生成の品質を損なうことなく,特定の個人を匿名化するAPLの匿名化性能を実証した。
論文 参考訳(メタデータ) (2024-05-27T07:38:26Z) - Exploring the Privacy Protection Capabilities of Chinese Large Language Models [19.12726985060863]
言語システムにおけるプライバシ評価のための3段階のプログレッシブフレームワークを考案した。
我々の主な目的は、大規模言語モデルの個人情報に対する感度を包括的に評価することである。
既存の中国の大規模言語モデルは、プライバシー保護の欠点を普遍的に示している。
論文 参考訳(メタデータ) (2024-03-27T02:31:54Z) - HFORD: High-Fidelity and Occlusion-Robust De-identification for Face
Privacy Protection [60.63915939982923]
顔の身元特定は、身元保護問題を解決するための実践的な方法である。
既存の顔の特定方法にはいくつかの問題がある。
これらの問題に対処するために,HFORD(High-Fidelity and Occlusion-Robust De-identification)法を提案する。
論文 参考訳(メタデータ) (2023-11-15T08:59:02Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Privacy in Large Language Models: Attacks, Defenses and Future
Directions [46.30861174408193]
大規模言語モデル(LLM)を対象とした現在のプライバシ攻撃を分析し、敵の想定能力に応じて分類する。
本稿では、これらのプライバシー攻撃に対抗するために開発された防衛戦略について概説する。
論文 参考訳(メタデータ) (2023-10-16T13:23:54Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Context-Aware Differential Privacy for Language Modeling [41.54238543400462]
本稿では,CADP-LM(Context-Aware Differentially Private Language Model)を紹介する。
CADP-LMは、潜在的にセンシティブな情報を定義し、監査するために、エンフコンテクスの概念に依存している。
CADP-LMのユニークな特徴は、センシティブな文や文脈のみの保護を目標とする能力である。
論文 参考訳(メタデータ) (2023-01-28T20:06:16Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - Privacy in Deep Learning: A Survey [16.278779275923448]
多くの分野でのディープラーニングの継続的な進歩は、プロダクションシステムにDeep Neural Networks(DNN)の採用につながっている。
大規模なデータセットと高い計算能力がこれらの進歩の主な貢献者である。
このデータはさまざまな脆弱性によって誤用または漏洩される可能性があるため、プライバシー上の深刻な懸念が生じる。
論文 参考訳(メタデータ) (2020-04-25T23:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。