論文の概要: Deploying Privacy Guardrails for LLMs: A Comparative Analysis of Real-World Applications
- arxiv url: http://arxiv.org/abs/2501.12456v1
- Date: Tue, 21 Jan 2025 19:04:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 16:54:03.151337
- Title: Deploying Privacy Guardrails for LLMs: A Comparative Analysis of Real-World Applications
- Title(参考訳): LLMのためのプライバシガードレールのデプロイ: 実世界のアプリケーションの比較分析
- Authors: Shubhi Asthana, Bing Zhang, Ruchi Mahindru, Chad DeLuca, Anna Lisa Gentile, Sandeep Gopisetty,
- Abstract要約: OneShieldは、エンタープライズおよびオープンソース環境でのユーザ入力とLLM出力のプライバシーリスクを軽減するために設計されたフレームワークである。
企業規模のデータガバナンスに焦点をあてて、2つの実世界のデプロイメントを分析します。
OneShieldは26言語にわたるセンシティブなエンティティの検出で0.95 F1スコアを獲得し、最先端のツールを上回った。
- 参考スコア(独自算出の注目度): 3.1810537478232406
- License:
- Abstract: The adoption of Large Language Models (LLMs) has revolutionized AI applications but poses significant challenges in safeguarding user privacy. Ensuring compliance with privacy regulations such as GDPR and CCPA while addressing nuanced privacy risks requires robust and scalable frameworks. This paper presents a detailed study of OneShield Privacy Guard, a framework designed to mitigate privacy risks in user inputs and LLM outputs across enterprise and open-source settings. We analyze two real-world deployments:(1) a multilingual privacy-preserving system integrated with Data and Model Factory, focusing on enterprise-scale data governance; and (2) PR Insights, an open-source repository emphasizing automated triaging and community-driven refinements. In Deployment 1, OneShield achieved a 0.95 F1 score in detecting sensitive entities like dates, names, and phone numbers across 26 languages, outperforming state-of-the-art tool such as StarPII and Presidio by up to 12\%. Deployment 2, with an average F1 score of 0.86, reduced manual effort by over 300 hours in three months, accurately flagging 8.25\% of 1,256 pull requests for privacy risks with enhanced context sensitivity. These results demonstrate OneShield's adaptability and efficacy in diverse environments, offering actionable insights for context-aware entity recognition, automated compliance, and ethical AI adoption. This work advances privacy-preserving frameworks, supporting user trust and compliance across operational contexts.
- Abstract(参考訳): LLM(Large Language Models)の採用は、AIアプリケーションに革命をもたらしたが、ユーザのプライバシを保護する上で大きな課題となっている。
GDPRやCCPAといったプライバシ規制の遵守を保証しつつ、不適切なプライバシリスクに対処するためには、堅牢でスケーラブルなフレームワークが必要である。
本稿では,企業およびオープンソース環境におけるユーザ入力とLCM出力のプライバシーリスクを軽減するためのフレームワークであるOneShield Privacy Guardについて,詳細な研究を行う。
1)データとモデルファクトリを統合した多言語プライバシ保護システム,(2)自動トリアージとコミュニティ主導の洗練を重視したオープンソースリポジトリであるPR Insights。
Deployment 1では、OneShieldが26言語にわたる日付、名前、電話番号などのセンシティブなエンティティを検出し、StarPIIやPresidioなどの最先端ツールを最大12.5%上回った。
デプロイ2では、平均F1スコアが0.86で、手作業は3ヶ月で300時間以上削減され、コンテキスト感度が向上したプライバシーリスクに対する1256件のプルリクエストの8.25\%を正確にフラグ付けした。
これらの結果は、さまざまな環境におけるOneShieldの適応性と有効性を示し、コンテキスト対応エンティティ認識、自動コンプライアンス、倫理的AI導入に関する実用的な洞察を提供する。
この作業は、プライバシ保護フレームワークを進歩させ、運用コンテキストを越えたユーザの信頼とコンプライアンスをサポートする。
関連論文リスト
- A Practical and Privacy-Preserving Framework for Real-World Large Language Model Services [8.309281698695381]
大規模言語モデル(LLM)は、テキスト理解と生成において例外的な能力を示した。
個人はしばしばLLM企業が提供するオンラインAI・アズ・ア・サービス(AI)に依存している。
このビジネスモデルは、サービスプロバイダがユーザのトレースパターンや行動データを悪用する可能性があるため、重大なプライバシー上のリスクをもたらす。
本稿では,サービスプロバイダが要求を提出した個人にリンクさせることを防止し,ユーザの匿名性を確保するための実用的かつプライバシ保護フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-03T07:40:28Z) - FedSpaLLM: Federated Pruning of Large Language Models [8.45879077052023]
大規模言語モデル(LLM)は最先端のパフォーマンスを実現するが、高い計算量とストレージ要求のためデプロイは困難である。
我々は,LLMの刈り取り専用に設計された最初のフェデレーション学習フレームワークであるFedSpaLLMを提案する。
論文 参考訳(メタデータ) (2024-10-18T20:33:12Z) - Trustworthy AI: Securing Sensitive Data in Large Language Models [0.0]
大規模言語モデル(LLM)は、堅牢なテキスト生成と理解を可能にすることで自然言語処理(NLP)を変革した。
本稿では, 機密情報の開示を動的に制御するために, 信頼機構をLCMに組み込むための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-26T19:02:33Z) - Privacy Policy Analysis through Prompt Engineering for LLMs [3.059256166047627]
PAPEL (Privacy Policy Analysis through Prompt Engineering for LLMs) は、Large Language Models (LLMs) の力を利用してプライバシーポリシーの分析を自動化するフレームワークである。
これらのポリシーからの情報の抽出、アノテーション、要約を合理化し、追加のモデルトレーニングを必要とせず、アクセシビリティと理解性を高めることを目的としている。
PAPELの有効性を, (i) アノテーションと (ii) 矛盾解析の2つの応用で実証した。
論文 参考訳(メタデータ) (2024-09-23T10:23:31Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - ASSERT: Automated Safety Scenario Red Teaming for Evaluating the
Robustness of Large Language Models [65.79770974145983]
ASSERT、Automated Safety Scenario Red Teamingは、セマンティックなアグリゲーション、ターゲットブートストラップ、敵の知識注入という3つの方法で構成されている。
このプロンプトを4つの安全領域に分割し、ドメインがモデルの性能にどのように影響するかを詳細に分析する。
統計的に有意な性能差は, 意味的関連シナリオにおける絶対分類精度が最大11%, ゼロショット逆数設定では最大19%の絶対誤差率であることがわかった。
論文 参考訳(メタデータ) (2023-10-14T17:10:28Z) - Cooperative Multi-Agent Actor-Critic for Privacy-Preserving Load
Scheduling in a Residential Microgrid [71.17179010567123]
本稿では,分散型アクターを分散批評家に教育する,プライバシ保護型マルチエージェントアクター批判フレームワークを提案する。
提案手法は,家庭のプライバシを保護しつつ,暗黙的にマルチエージェントの信用代入メカニズムを学習する。
論文 参考訳(メタデータ) (2021-10-06T14:05:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。