論文の概要: DePrompt: Desensitization and Evaluation of Personal Identifiable Information in Large Language Model Prompts
- arxiv url: http://arxiv.org/abs/2408.08930v1
- Date: Fri, 16 Aug 2024 02:38:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 23:26:14.974347
- Title: DePrompt: Desensitization and Evaluation of Personal Identifiable Information in Large Language Model Prompts
- Title(参考訳): DePrompt:大規模言語モデルにおける個人識別情報の脱感作と評価
- Authors: Xiongtao Sun, Gan Liu, Zhipeng He, Hui Li, Xiaoguang Li,
- Abstract要約: DePromptは、プロンプトのための脱感作保護および有効性評価フレームワークである。
我々は、コンテキスト属性を統合し、プライバシタイプを定義し、高精度なPIIエンティティ識別を実現する。
私たちのフレームワークはプロンプトに適応可能で、テキストのユーザビリティに依存したシナリオに拡張できます。
- 参考スコア(独自算出の注目度): 11.883785681042593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prompt serves as a crucial link in interacting with large language models (LLMs), widely impacting the accuracy and interpretability of model outputs. However, acquiring accurate and high-quality responses necessitates precise prompts, which inevitably pose significant risks of personal identifiable information (PII) leakage. Therefore, this paper proposes DePrompt, a desensitization protection and effectiveness evaluation framework for prompt, enabling users to safely and transparently utilize LLMs. Specifically, by leveraging large model fine-tuning techniques as the underlying privacy protection method, we integrate contextual attributes to define privacy types, achieving high-precision PII entity identification. Additionally, through the analysis of key features in prompt desensitization scenarios, we devise adversarial generative desensitization methods that retain important semantic content while disrupting the link between identifiers and privacy attributes. Furthermore, we present utility evaluation metrics for prompt to better gauge and balance privacy and usability. Our framework is adaptable to prompts and can be extended to text usability-dependent scenarios. Through comparison with benchmarks and other model methods, experimental evaluations demonstrate that our desensitized prompt exhibit superior privacy protection utility and model inference results.
- Abstract(参考訳): Promptは、大規模言語モデル(LLM)との相互作用において重要なリンクとして機能し、モデル出力の精度と解釈可能性に大きな影響を及ぼす。
しかし、正確で高品質な応答を取得するには正確なプロンプトが必要であるため、必然的に個人識別情報(PII)漏洩の重大なリスクが生じる。
そこで本稿では, 利用者が安全かつ透過的にLDMを利用できるようにするためのデセンシタイズ保護・有効性評価フレームワークであるDePromptを提案する。
具体的には,プライバシ保護手法として大規模モデルの微調整技術を活用することで,コンテキスト属性を統合してプライバシタイプを定義し,高精度なPIIエンティティ識別を実現する。
さらに,素早い脱感作シナリオにおける重要な特徴の分析を通じて,識別子とプライバシ属性のリンクを乱しながら重要な意味的内容を保持する逆生成脱感作手法を考案した。
さらに,プライバシとユーザビリティのバランスを改善するためのユーティリティ評価指標を提案する。
私たちのフレームワークはプロンプトに適応可能で、テキストのユーザビリティに依存したシナリオに拡張できます。
ベンチマークや他のモデル手法との比較により,我々の脱感作が優れたプライバシ保護ユーティリティとモデル推論結果を示すことを示す実験結果が得られた。
関連論文リスト
- Privacy-Enhanced Adaptive Authentication: User Profiling with Privacy Guarantees [0.6554326244334866]
本稿では,プライバシ強化型アダプティブ認証プロトコルを提案する。
リアルタイムリスクアセスメントに基づいて認証要求を動的に調整する。
CCPAなどのデータ保護規則を遵守することにより,セキュリティを向上するだけでなく,ユーザの信頼も向上する。
論文 参考訳(メタデータ) (2024-10-27T19:11:33Z) - ProSA: Assessing and Understanding the Prompt Sensitivity of LLMs [72.13489820420726]
ProSAは、大規模な言語モデルにおいて、迅速な感度を評価し、理解するために設計されたフレームワークである。
我々の研究は、データセットやモデル間で迅速に感度が変動することを発見し、より大きなモデルでは堅牢性が向上することを示した。
論文 参考訳(メタデータ) (2024-10-16T09:38:13Z) - Con-ReCall: Detecting Pre-training Data in LLMs via Contrastive Decoding [118.75567341513897]
既存のメソッドは通常、ターゲットテキストを分離して分析するか、非メンバーコンテキストでのみ分析する。
Con-ReCallは、メンバと非メンバのコンテキストによって誘導される非対称な分布シフトを利用する新しいアプローチである。
論文 参考訳(メタデータ) (2024-09-05T09:10:38Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Differential Privacy for Anomaly Detection: Analyzing the Trade-off Between Privacy and Explainability [4.844901225743574]
我々は、SHAP(SHapley Additive ExPlanations)とDP(差分プライバシー)による説明可能なAI(XAI)の適用のトレードオフを利用する。
以上の結果から,DPによるプライバシの実施が検出精度と説明可能性に重大な影響があることが示唆された。
さらに,説明文の視覚的解釈は,ADアルゴリズムの選択にも影響されていることを示す。
論文 参考訳(メタデータ) (2024-04-09T09:09:36Z) - ASSERT: Automated Safety Scenario Red Teaming for Evaluating the
Robustness of Large Language Models [65.79770974145983]
ASSERT、Automated Safety Scenario Red Teamingは、セマンティックなアグリゲーション、ターゲットブートストラップ、敵の知識注入という3つの方法で構成されている。
このプロンプトを4つの安全領域に分割し、ドメインがモデルの性能にどのように影響するかを詳細に分析する。
統計的に有意な性能差は, 意味的関連シナリオにおける絶対分類精度が最大11%, ゼロショット逆数設定では最大19%の絶対誤差率であることがわかった。
論文 参考訳(メタデータ) (2023-10-14T17:10:28Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Why Should I Trust a Model is Private? Using Shifts in Model Explanation
for Evaluating Privacy-Preserving Emotion Recognition Model [35.016050900061]
本稿では,モデルの有効性を評価するために解釈可能な手法を用いることに焦点をあてる。
プライバシーを守るための一般的な方法が、プライバシー保護の人間の認識とどのように一致しないかを示します。
評価者の傾きを評価し、特定のタスクのモデルを選択するためのクラウドソーシング実験を行います。
論文 参考訳(メタデータ) (2021-04-18T09:56:41Z) - Beyond The Text: Analysis of Privacy Statements through Syntactic and
Semantic Role Labeling [12.74252812104216]
本稿では,プライバシポリシからコンテキスト整合性(Contextual Integrity)のレンズを通じて,プライバシパラメータを抽出する新たなタスクを定式化する。
最近提案された質問応答に基づくソリューションを含む従来のNLPタスクは、プライバシパラメータ抽出の問題に対処するには不十分であることを示す。
論文 参考訳(メタデータ) (2020-10-01T20:48:37Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。