論文の概要: DocMIA: Document-Level Membership Inference Attacks against DocVQA Models
- arxiv url: http://arxiv.org/abs/2502.03692v1
- Date: Thu, 06 Feb 2025 00:58:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:34:19.345920
- Title: DocMIA: Document-Level Membership Inference Attacks against DocVQA Models
- Title(参考訳): DocMIA:DocVQAモデルに対するドキュメントレベルメンバーシップ推論攻撃
- Authors: Khanh Nguyen, Raouf Kerkouche, Mario Fritz, Dimosthenis Karatzas,
- Abstract要約: DocVQAモデルに特化された2つの新しいメンバーシップ推論攻撃を導入する。
提案手法は,さまざまなDocVQAモデルやデータセットに対して,既存の最先端メンバシップ推論よりも優れている。
- 参考スコア(独自算出の注目度): 52.13818827581981
- License:
- Abstract: Document Visual Question Answering (DocVQA) has introduced a new paradigm for end-to-end document understanding, and quickly became one of the standard benchmarks for multimodal LLMs. Automating document processing workflows, driven by DocVQA models, presents significant potential for many business sectors. However, documents tend to contain highly sensitive information, raising concerns about privacy risks associated with training such DocVQA models. One significant privacy vulnerability, exploited by the membership inference attack, is the possibility for an adversary to determine if a particular record was part of the model's training data. In this paper, we introduce two novel membership inference attacks tailored specifically to DocVQA models. These attacks are designed for two different adversarial scenarios: a white-box setting, where the attacker has full access to the model architecture and parameters, and a black-box setting, where only the model's outputs are available. Notably, our attacks assume the adversary lacks access to auxiliary datasets, which is more realistic in practice but also more challenging. Our unsupervised methods outperform existing state-of-the-art membership inference attacks across a variety of DocVQA models and datasets, demonstrating their effectiveness and highlighting the privacy risks in this domain.
- Abstract(参考訳): Document Visual Question Answering (DocVQA)は、エンドツーエンドの文書理解のための新しいパラダイムを導入し、すぐにマルチモーダルLLMの標準ベンチマークの1つになった。
DocVQAモデルによって駆動されるドキュメント処理ワークフローの自動化は、多くのビジネスセクターにとって大きな可能性を秘めている。
しかし、ドキュメントには非常に機密性の高い情報が含まれており、DocVQAモデルのようなトレーニングに関連するプライバシーリスクへの懸念が高まっている。
メンバーシップ推論攻撃によって悪用された重要なプライバシー上の脆弱性の1つは、特定のレコードがモデルのトレーニングデータの一部であったかどうかを敵が判断する可能性があることである。
本稿では,DocVQAモデルに特化された2つの新しいメンバーシップ推論手法を提案する。
これらの攻撃は、モデルアーキテクチャとパラメータにフルアクセス可能なホワイトボックス設定と、モデル出力のみが利用可能なブラックボックス設定の2つの異なるシナリオのために設計されている。
特に、我々の攻撃は、敵が補助的なデータセットへのアクセスを欠いていると仮定している。
我々の教師なしの手法は、さまざまなDocVQAモデルやデータセットに対して、既存の最先端メンバシップ推論攻撃よりも優れており、その効果を実証し、このドメインのプライバシーリスクを強調しています。
関連論文リスト
- Reconstructing training data from document understanding models [0.0]
文書理解モデルは、機密文書を処理するために企業によってますます採用されている。
本稿では,これらのモデルのトレーニングデータからセンシティブフィールドを抽出するために設計された最初の再構成攻撃について述べる。
論文 参考訳(メタデータ) (2024-06-05T12:13:18Z) - Federated Document Visual Question Answering: A Pilot Study [11.157766332838877]
文書は著作権や私的な情報を含む傾向があり、公開を禁止している。
本研究では,分散化されたプライベートドキュメントデータに基づく共有モデルの学習方法として,フェデレーション付き学習スキームの利用について検討する。
我々は,さまざまなDocVQAデータセットを用いたフェデレーショントレーニングにおいて,事前学習戦略が効果的に学習し,スケールアップ可能であることを示す。
論文 参考訳(メタデータ) (2024-05-10T17:53:05Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Privacy-Aware Document Visual Question Answering [44.82362488593259]
この研究はDocVQAで使用されるマルチモーダルLLMモデルの現状におけるプライバシー問題を強調している。
本稿では,請求書と関連する質問と回答を含む大規模DocVQAデータセットを提案する。
プライベートでないモデルは記憶に残る傾向があり、プライベートな情報が露出する可能性があることを実証する。
論文 参考訳(メタデータ) (2023-12-15T06:30:55Z) - On Task-personalized Multimodal Few-shot Learning for Visually-rich
Document Entity Retrieval [59.25292920967197]
VDER(Few-shot document entity search)は、NLPアプリケーションにおいて重要なトピックである。
FewVEXは、エンティティレベルの少数ショットVDERの分野における将来の研究を促進するための、新しいデータセットである。
本稿では,タスクパーソナライズを効果的に実現することを中心に,タスク認識型メタラーニングベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-01T17:51:43Z) - Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - Peek Across: Improving Multi-Document Modeling via Cross-Document
Question-Answering [49.85790367128085]
我々は,事前学習対象に答える新しいクロスドキュメント質問から,汎用的なマルチドキュメントモデルを事前学習する。
この新規なマルチドキュメントQA定式化は、クロステキスト情報関係をよりよく回復させるようモデルに指示する。
分類タスクや要約タスクに焦点を当てた従来のマルチドキュメントモデルとは異なり、事前学習対象の定式化により、短いテキスト生成と長いテキスト生成の両方を含むタスクを実行できる。
論文 参考訳(メタデータ) (2023-05-24T17:48:40Z) - Poisoning Attacks and Defenses on Artificial Intelligence: A Survey [3.706481388415728]
データ中毒攻撃は、トレーニングフェーズ中にモデルに供給されたデータサンプルを改ざんして、推論フェーズ中にモデルの精度を低下させる攻撃の一種である。
この研究は、この種の攻撃に対処する最新の文献で見つかった最も関連性の高い洞察と発見をまとめたものである。
実環境下での幅広いMLモデルに対するデータ中毒の影響を比較検討し,本研究の徹底的な評価を行った。
論文 参考訳(メタデータ) (2022-02-21T14:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。