論文の概要: A Systemic Evaluation of Multimodal RAG Privacy
- arxiv url: http://arxiv.org/abs/2601.17644v1
- Date: Sun, 25 Jan 2026 01:37:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.108376
- Title: A Systemic Evaluation of Multimodal RAG Privacy
- Title(参考訳): マルチモーダルRAGプライバシーのシステム評価
- Authors: Ali Al-Lawati, Suhang Wang,
- Abstract要約: 我々は、標準モデルプロンプトを通して観察されるmRAGパイプラインに固有のプライバシーリスクを分析する。
本研究は,mRAGのプライバシー保護機構の必要性と今後の研究のモチベーションを明らかにするものである。
- 参考スコア(独自算出の注目度): 28.429497070260027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing adoption of multimodal Retrieval-Augmented Generation (mRAG) pipelines for vision-centric tasks (e.g. visual QA) introduces important privacy challenges. In particular, while mRAG provides a practical capability to connect private datasets to improve model performance, it risks the leakage of private information from these datasets during inference. In this paper, we perform an empirical study to analyze the privacy risks inherent in the mRAG pipeline observed through standard model prompting. Specifically, we implement a case study that attempts to infer the inclusion of a visual asset, e.g. image, in the mRAG, and if present leak the metadata, e.g. caption, related to it. Our findings highlight the need for privacy-preserving mechanisms and motivate future research on mRAG privacy.
- Abstract(参考訳): 視覚中心のタスク(例えば、ビジュアルQA)にマルチモーダルなRetrieval-Augmented Generation(mRAG)パイプラインを採用することで、重要なプライバシー上の課題がもたらされる。
特に、mRAGは、モデルパフォーマンスを改善するためにプライベートデータセットを接続する実用的な機能を提供するが、推論中にこれらのデータセットからプライベート情報が漏洩するリスクがある。
本稿では,標準モデルのプロンプトによって観測されるmRAGパイプラインに固有のプライバシーリスクを分析するための実証的研究を行う。
具体的には、mRAGに視覚的アセット、eg画像を含むことを推測するケーススタディを実装し、現在、メタデータをリークしている場合には、egキャプションを関連づける。
本研究は,mRAGのプライバシー保護機構の必要性と今後の研究のモチベーションを明らかにするものである。
関連論文リスト
- SoK: Privacy Risks and Mitigations in Retrieval-Augmented Generation Systems [53.51921540246166]
Retrieval-Augmented Generation (RAG)技術は広く普及している。
RAGには、Large Language Models(LLM)とドメイン固有の知識ベースとの結合が含まれる。
RAGの普及は、データのプライバシに関する懸念を引き起こしている。
論文 参考訳(メタデータ) (2026-01-07T14:50:41Z) - On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Model Inversion Attacks: A Survey of Approaches and Countermeasures [69.18069679327263]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - The Good and The Bad: Exploring Privacy Issues in Retrieval-Augmented
Generation (RAG) [56.67603627046346]
Retrieval-augmented Generation (RAG)は、プロプライエタリおよびプライベートデータによる言語モデルを容易にする強力な技術である。
本研究では,プライベート検索データベースの漏洩に対するRAGシステムの脆弱性を実証する,新たな攻撃手法による実証的研究を行う。
論文 参考訳(メタデータ) (2024-02-23T18:35:15Z) - PAC Privacy Preserving Diffusion Models [6.299952353968428]
拡散モデルは、高いプライバシーと視覚的品質の両方で画像を生成することができる。
しかし、特定のデータ属性の民営化において堅牢な保護を確保するといった課題が発生する。
PACプライバシー保護拡散モデル(PAC Privacy Preserving Diffusion Model)を導入する。
論文 参考訳(メタデータ) (2023-12-02T18:42:52Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。