論文の概要: PrIeD-KIE: Towards Privacy Preserved Document Key Information Extraction
- arxiv url: http://arxiv.org/abs/2310.03777v1
- Date: Thu, 5 Oct 2023 12:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 19:21:54.818835
- Title: PrIeD-KIE: Towards Privacy Preserved Document Key Information Extraction
- Title(参考訳): PrIeD-KIE:プライバシー保護文書鍵情報抽出を目指して
- Authors: Saifullah Saifullah (1 and 2), Stefan Agne (2 and 3), Andreas Dengel
(1 and 2), Sheraz Ahmed (2 and 3) ((1) Department of Computer Science,
University of Kaiserslautern-Landau, Kaiserslautern, Rhineland-Palatinate,
Germany, (2) German Research Center for Artificial Intelligence, DFKI GmbH,
Kaiserslautern, Rhineland-Palatinate, Germany, (3) DeepReader GmbH,
Kaiserlautern, Germany)
- Abstract要約: 本稿では,私的鍵情報抽出(KIE)システムの開発戦略を紹介する。
大規模文書基盤モデルは,プライベート設定下でのKIEタスクに対して,効果的に微調整可能であることを実証する。
FeAm-DPは,スタンドアローンのコンテキストから多サイクルのフェデレーション環境へのグローバルDPの効率的なスケールアップを可能にする新しいDP-FLアルゴリズムである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduce strategies for developing private Key Information
Extraction (KIE) systems by leveraging large pretrained document foundation
models in conjunction with differential privacy (DP), federated learning (FL),
and Differentially Private Federated Learning (DP-FL). Through extensive
experimentation on six benchmark datasets (FUNSD, CORD, SROIE, WildReceipts,
XFUND, and DOCILE), we demonstrate that large document foundation models can be
effectively fine-tuned for the KIE task under private settings to achieve
adequate performance while maintaining strong privacy guarantees. Moreover, by
thoroughly analyzing the impact of various training and model parameters on
model performance, we propose simple yet effective guidelines for achieving an
optimal privacy-utility trade-off for the KIE task under global DP. Finally, we
introduce FeAm-DP, a novel DP-FL algorithm that enables efficiently upscaling
global DP from a standalone context to a multi-client federated environment. We
conduct a comprehensive evaluation of the algorithm across various client and
privacy settings, and demonstrate its capability to achieve comparable
performance and privacy guarantees to standalone DP, even when accommodating an
increasing number of participating clients. Overall, our study offers valuable
insights into the development of private KIE systems, and highlights the
potential of document foundation models for privacy-preserved Document AI
applications. To the best of authors' knowledge, this is the first work that
explores privacy preserved document KIE using document foundation models.
- Abstract(参考訳): 本稿では、差分プライバシー(dp)、フェデレーション学習(fl)、差分プライベートフェデレーション学習(dp-fl)と連携して、事前学習された大規模文書基盤モデルを活用することで、個人鍵情報抽出(kie)システムの開発戦略を提案する。
6つのベンチマークデータセット(FUNSD、CORD、SROIE、WildReceipts、XFUND、DOCILE)の広範な実験を通じて、大きなドキュメント基盤モデルは、プライベート設定下でKIEタスクに対して効果的に微調整され、高いプライバシー保証を維持しながら適切なパフォーマンスを達成することができることを示した。
さらに,様々なトレーニングやモデルパラメータがモデル性能に与える影響を徹底的に分析することにより,グローバルDPの下でのKIEタスクの最適プライバシー利用トレードオフを実現するための,シンプルかつ効果的なガイドラインを提案する。
最後に、スタンドアローンの状況からマルチクライアントのフェデレーション環境へのグローバルDPの効率的なスケールアップを可能にする新しいDP-FLアルゴリズムFeAm-DPを紹介する。
各種のクライアントおよびプライバシ設定にまたがってアルゴリズムを包括的に評価し,参加するクライアントの数が増えても,スタンドアローンDPに匹敵する性能とプライバシ保証を実現する能力を示す。
全体として、当社の研究では、プライベートなKIEシステムの開発に関する貴重な洞察を提供し、プライバシ保護されたドキュメントAIアプリケーションのためのドキュメント基盤モデルの可能性を強調している。
著者の知識を最大限に活用するため、これは文書基礎モデルを用いてプライバシーを保護した文書kieを探求する最初の作品である。
関連論文リスト
- Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - ULDP-FL: Federated Learning with Across Silo User-Level Differential Privacy [19.017342515321918]
Differentially Private Federated Learning (DP-FL)は、正式なプライバシを保証するための協調的な機械学習アプローチとして注目を集めている。
Uldp-FLは,単一ユーザのデータが複数のサイロに属する可能性のあるクロスサイロFLにおいて,ユーザレベルのDPを保証するように設計された,新しいFLフレームワークである。
論文 参考訳(メタデータ) (2023-08-23T15:50:51Z) - Flexible Differentially Private Vertical Federated Learning with
Adaptive Feature Embeddings [24.36847069007795]
垂直連合学習(VFL)は、プライバシー保護の欠陥に対する懸念を刺激している。
本稿では、データプライバシとVFLのタスクユーティリティ目標との微妙な均衡を差分プライバシー(DP)下で検討する。
我々は2つの目標を分離し、それらを順次解決するフレキシブルで汎用的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-26T04:40:51Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Differentially Private Federated Bayesian Optimization with Distributed
Exploration [48.9049546219643]
我々は、DPを反復アルゴリズムに追加するための一般的なフレームワークを通じて、ディープニューラルネットワークのトレーニングに差分プライバシ(DP)を導入する。
DP-FTS-DEは高い実用性(競争性能)と高いプライバシー保証を実現する。
また,DP-FTS-DEがプライバシとユーティリティのトレードオフを引き起こすことを示すために,実世界の実験も行っている。
論文 参考訳(メタデータ) (2021-10-27T04:11:06Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z) - Anonymizing Data for Privacy-Preserving Federated Learning [3.3673553810697827]
我々は,フェデレートラーニングの文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
当社のアプローチは,プライバシの保護レベルをサポートしながら,実用性やモデルの性能を最大化することを目的としている。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
論文 参考訳(メタデータ) (2020-02-21T02:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。