論文の概要: Examining Software Developers' Needs for Privacy Enforcing Techniques: A survey
- arxiv url: http://arxiv.org/abs/2512.14756v1
- Date: Mon, 15 Dec 2025 13:20:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.724271
- Title: Examining Software Developers' Needs for Privacy Enforcing Techniques: A survey
- Title(参考訳): ソフトウェア開発者のプライバシ強化技術の必要性を理解する - 調査より
- Authors: Ioanna Theophilou, Georgia M. Kapitsaki,
- Abstract要約: データプライバシ法は、すべてのソフトウェアシステムの要件としてデータプライバシ法に準拠している。
データコンプライアンスは法的な知識と密結合しているため、ソフトウェアシステムでこのような統合を実行するのは必ずしも容易ではない。
プライバシ法コンプライアンスを支援する新しい開発者ニーズについては、検討されていない。
- 参考スコア(独自算出の注目度): 2.879036956042182
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Data privacy legislation, such as GDPR and CCPA/CPRA, has rendered data privacy law compliance a requirement of all software systems. Developers need to implement various kinds of functionalities to cover law needs, including user rights and law principles. As data compliance is tightly coupled with legal knowledge, it is not always easy to perform such integrations in software systems. Prior studies have focused on developers' understanding of privacy principles, such as Privacy by Design, and have examined privacy techniques used in the software industry. Nevertheless, emerging developer needs that can assist in privacy law compliance have not been examined but are useful in understanding what development automation tools, such as Generative AI, need to cover to make the compliance process more straightforward and seamless within the development process. In this work, we present a survey that examines the above needs with the participation of 68 developers, while we have examined which factors affect practitioners' needs. Most developers express a need for more automated tools, while privacy experience increases practitioners' concerns for privacy tools. Our results can assist practitioners in better positioning their development activities within privacy law compliance and point to an urgent need for privacy facilitators.
- Abstract(参考訳): GDPRやCCPA/CPRAなどのデータプライバシ法は、すべてのソフトウェアシステムの要件としてデータプライバシ法に準拠している。
開発者は、ユーザーの権利や法原則など、法のニーズをカバーするさまざまな機能を実装する必要がある。
データコンプライアンスは法的知識と密接に結びついているので、ソフトウェアシステムでこのような統合を実行するのは必ずしも容易ではない。
以前の研究では、開発者がプライバシ・バイ・デザインのようなプライバシの原則を理解することに重点を置いており、ソフトウェア産業で使用されているプライバシのテクニックを調査してきた。
それでも、プライバシ法コンプライアンスを支援できる新たな開発者ニーズは検討されていないが、ジェネレーティブAIのような開発自動化ツールが、開発プロセス内でコンプライアンスプロセスをより簡単かつシームレスにするために何をカバーする必要があるのかを理解するのに有用である。
本研究では,68名の開発者を対象に,上記のニーズを調査し,その要因が実践者のニーズにどのような影響を及ぼすかを検討した。
ほとんどの開発者は、より自動化されたツールの必要性を表明していますが、プライバシエクスペリエンスは、実践者のプライバシツールに対する懸念を高めます。
当社の結果は,プライバシ法コンプライアンスにおける開発活動の適切な位置付けを支援するとともに,プライバシファシリテータの緊急ニーズを示唆するものである。
関連論文リスト
- "I need to learn better searching tactics for privacy policy laws.'' Investigating Software Developers' Behavior When Using Sources on Privacy Issues [8.662963983664223]
本研究は,プライバシ関連の開発タスクに対する既存のサポートにおいて,大きな欠点を浮き彫りにしている。
当社の調査結果に基づいて、開発者がよりアクセスしやすく、理解しやすく、行動可能なプライバシーリソースの必要性について論じる。
論文 参考訳(メタデータ) (2025-11-11T09:58:06Z) - Generating Privacy Stories From Software Documentation [1.2094859111770522]
CoT, in-context-learning (ICL), Large Language Models (LLMs) に基づく新しいアプローチを開発する。
GPT-4o や Llama 3 などの LLM は,プライバシの振る舞いを識別し,F1 スコア 0.8 を超えるプライバシユーザストーリーを生成する。
論文 参考訳(メタデータ) (2025-06-28T20:55:21Z) - How Privacy-Savvy Are Large Language Models? A Case Study on Compliance and Privacy Technical Review [15.15468770348023]
プライバシ情報抽出(PIE)、法および規制キーポイント検出(KPD)、質問応答(QA)などのプライバシー関連タスクにおいて、大規模言語モデルの性能を評価する。
本稿では, BERT, GPT-3.5, GPT-4, カスタムモデルなど, プライバシコンプライアンスチェックや技術プライバシレビューの実行能力について検討する。
LLMは、プライバシーレビューの自動化と規制上の相違点の特定を約束する一方で、法律標準の進化に完全に準拠する能力において、大きなギャップが持続している。
論文 参考訳(メタデータ) (2024-09-04T01:51:37Z) - Privacy Checklist: Privacy Violation Detection Grounding on Contextual Integrity Theory [43.12744258781724]
単純なパターンマッチングではなく、推論問題としてプライバシー問題を定式化します。
我々は、社会的アイデンティティ、プライベート属性、および既存のプライバシー規則を網羅する、最初の包括的なチェックリストを開発する。
論文 参考訳(メタデータ) (2024-08-19T14:48:04Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - Evaluating Privacy Perceptions, Experience, and Behavior of Software Development Teams [2.818645620433775]
調査には23カ国から362人が参加し、プロダクトマネージャ、開発者、テスタといった役割を担っています。
以上の結果から,SDLC の役割におけるプライバシ定義の多様性が示唆され,SDLC 全体にわたる総合的なプライバシアプローチの必要性が強調された。
ほとんどの参加者はHIPAAや他の規制に精通しており、多段階コンプライアンスが主な関心事である。
論文 参考訳(メタデータ) (2024-04-01T17:55:10Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Why are Developers Struggling to Put GDPR into Practice when Developing
Privacy-Preserving Software Systems? [3.04585143845864]
一般データ保護法は、ユーザデータの保護方法に関するガイドラインを提供する。
これまでの研究は、開発者がプライバシをソフトウェアシステムに埋め込むのを妨げるものを探究してきた。
本稿では,ソフトウェア開発者が法律を遵守するソフトウェアアプリケーションの実装を妨げている問題について検討する。
論文 参考訳(メタデータ) (2020-08-07T04:34:08Z) - A vision for global privacy bridges: Technical and legal measures for
international data markets [77.34726150561087]
データ保護法とプライバシーの権利が認められているにもかかわらず、個人情報の取引は「トレーディング・オイル」と同等のビジネスになっている。
オープンな対立は、データに対するビジネスの要求とプライバシーへの欲求の間に生じている。
プライバシを備えたパーソナル情報市場のビジョンを提案し,テストする。
論文 参考訳(メタデータ) (2020-05-13T13:55:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。