論文の概要: Generating Privacy Stories From Software Documentation
- arxiv url: http://arxiv.org/abs/2506.23014v1
- Date: Sat, 28 Jun 2025 20:55:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.668989
- Title: Generating Privacy Stories From Software Documentation
- Title(参考訳): ソフトウェアドキュメンテーションからプライバシストーリーを生成する
- Authors: Wilder Baldwin, Shashank Chintakuntla, Shreyah Parajuli, Ali Pourghasemi, Ryan Shanz, Sepideh Ghanavati,
- Abstract要約: CoT, in-context-learning (ICL), Large Language Models (LLMs) に基づく新しいアプローチを開発する。
GPT-4o や Llama 3 などの LLM は,プライバシの振る舞いを識別し,F1 スコア 0.8 を超えるプライバシユーザストーリーを生成する。
- 参考スコア(独自算出の注目度): 1.2094859111770522
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Research shows that analysts and developers consider privacy as a security concept or as an afterthought, which may lead to non-compliance and violation of users' privacy. Most current approaches, however, focus on extracting legal requirements from the regulations and evaluating the compliance of software and processes with them. In this paper, we develop a novel approach based on chain-of-thought prompting (CoT), in-context-learning (ICL), and Large Language Models (LLMs) to extract privacy behaviors from various software documents prior to and during software development, and then generate privacy requirements in the format of user stories. Our results show that most commonly used LLMs, such as GPT-4o and Llama 3, can identify privacy behaviors and generate privacy user stories with F1 scores exceeding 0.8. We also show that the performance of these models could be improved through parameter-tuning. Our findings provide insight into using and optimizing LLMs for generating privacy requirements given software documents created prior to or throughout the software development lifecycle.
- Abstract(参考訳): アナリストや開発者は、プライバシをセキュリティの概念、あるいはアフター思想と見なしているため、ユーザのプライバシの非コンプライアンスや侵害につながる可能性がある。
しかし、現在のほとんどのアプローチは、規制から法的要件を抽出し、ソフトウェアとプロセスのコンプライアンスを評価することに重点を置いています。
本稿では,CoT,インコンテキスト学習(ICL),Large Language Models(LLM)に基づく新たなアプローチを開発し,ソフトウェア開発前後の様々なソフトウェア文書からプライバシの振る舞いを抽出し,ユーザストーリーのフォーマットでプライバシの要求を生成する。
GPT-4o や Llama 3 などの LLM は,プライバシの振る舞いを識別し,F1 スコア 0.8 を超えるプライバシユーザストーリーを生成する。
また,パラメータ調整により,これらのモデルの性能が向上することを示した。
本研究は,ソフトウェア開発ライフサイクルに先立って作成されるソフトウェア文書から,プライバシー要件を生成するためのLCMの使用と最適化に関する知見を提供する。
関連論文リスト
- On Active Privacy Auditing in Supervised Fine-tuning for White-Box Language Models [7.275432177367344]
パーシングは、言語モデル(LM)の教師付き微調整中にプライバシー漏洩リスクを特定し定量化するように設計されている。
我々は,GPT-2,Llama2などの大規模LMに対するMIA(White-box Membering Inference attack)の有効性を改善した。
本研究の目的は,LMのSFTコミュニティに対して,信頼性と使用可能なプライバシ監査ツールの提供と,微調整プロセス中のプライバシ保護に関する貴重な洞察を提供することである。
論文 参考訳(メタデータ) (2024-11-11T15:46:07Z) - Interactive GDPR-Compliant Privacy Policy Generation for Software Applications [6.189770781546807]
ソフトウェアアプリケーションを使用するには、ユーザが個人情報を提供するように要求されることがある。
プライバシーが重要な関心事になっているため、世界中で多くの保護規制が存在している。
本稿では,包括的かつ適合したプライバシポリシを生成するアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-04T01:22:16Z) - How Privacy-Savvy Are Large Language Models? A Case Study on Compliance and Privacy Technical Review [15.15468770348023]
プライバシ情報抽出(PIE)、法および規制キーポイント検出(KPD)、質問応答(QA)などのプライバシー関連タスクにおいて、大規模言語モデルの性能を評価する。
本稿では, BERT, GPT-3.5, GPT-4, カスタムモデルなど, プライバシコンプライアンスチェックや技術プライバシレビューの実行能力について検討する。
LLMは、プライバシーレビューの自動化と規制上の相違点の特定を約束する一方で、法律標準の進化に完全に準拠する能力において、大きなギャップが持続している。
論文 参考訳(メタデータ) (2024-09-04T01:51:37Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。