論文の概要: "Sorry for bugging you so much." Exploring Developers' Behavior Towards Privacy-Compliant Implementation
- arxiv url: http://arxiv.org/abs/2504.06697v1
- Date: Wed, 09 Apr 2025 08:59:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:07:12.895089
- Title: "Sorry for bugging you so much." Exploring Developers' Behavior Towards Privacy-Compliant Implementation
- Title(参考訳): 「そんなにバッジしてごめんなさい」 : プライバシーに配慮した実装に向けての開発者の行動を探る
- Authors: Stefan Albert Horstmann, Sandy Hong, David Klein, Raphael Serafini, Martin Degeling, Martin Johns, Veelasha Moonsamy, Alena Naiakshina,
- Abstract要約: プライバシに敏感なプログラミングタスクについて,30人のプロソフトウェア開発者を対象に調査を行った。
3つのタスクのいずれも、30人全員がプライバシに準拠するものではない。
参加者は、目的の制限、ユーザーの同意、データ最小化といった共通のプライバシー要件に対処する深刻な問題を報告した。
- 参考スコア(独自算出の注目度): 7.736621118547534
- License:
- Abstract: While protecting user data is essential, software developers often fail to fulfill privacy requirements. However, the reasons why they struggle with privacy-compliant implementation remain unclear. Is it due to a lack of knowledge, or is it because of insufficient support? To provide foundational insights in this field, we conducted a qualitative 5-hour programming study with 30 professional software developers implementing 3 privacy-sensitive programming tasks that were designed with GDPR compliance in mind. To explore if and how developers implement privacy requirements, participants were divided into 3 groups: control, privacy prompted, and privacy expert-supported. After task completion, we conducted follow-up interviews. Alarmingly, almost all participants submitted non-GDPR-compliant solutions (79/90). In particular, none of the 3 tasks were solved privacy-compliant by all 30 participants, with the non-prompted group having the lowest number of 3 out of 30 privacy-compliant solution attempts. Privacy prompting and expert support only slightly improved participants' submissions, with 6/30 and 8/30 privacy-compliant attempts, respectively. In fact, all participants reported severe issues addressing common privacy requirements such as purpose limitation, user consent, or data minimization. Counterintuitively, although most developers exhibited minimal confidence in their solutions, they rarely sought online assistance or contacted the privacy expert, with only 4 out of 10 expert-supported participants explicitly asking for compliance confirmation. Instead, participants often relied on existing implementations and focused on implementing functionality and security first.
- Abstract(参考訳): ユーザデータの保護は不可欠だが、ソフトウェア開発者は多くの場合、プライバシ要件を満たすことができない。
しかし、プライバシに準拠する実装に苦労する理由は不明だ。
知識不足のためなのか,あるいはサポート不足のためなのか?
そこで我々は,GDPR準拠を念頭に設計した3つのプライバシに敏感なプログラミングタスクを実装した30人のプロソフトウェア開発者を対象に,質的な5時間プログラミング調査を行った。
開発者がプライバシ要件を実装する方法を探るため、参加者はコントロール、プライバシのトリガー、プライバシの専門家が支援する3つのグループに分割された。
タスク完了後、フォローアップインタビューを行った。
ほぼすべての参加者が非GDPR準拠のソリューション(79/90)を提出した。
特に、3つのタスクのいずれも、30人の参加者全員によって、プライバシに準拠する解決方法が解決されなかった。
プライバシプロンプトとエキスパートサポートは、それぞれ6/30と8/30のプライバシ準拠の試みで、参加者の提出をわずかに改善しただけだった。
実際、すべての参加者は、目的の制限、ユーザーの同意、データ最小化といった共通のプライバシー要件に対処する深刻な問題を報告した。
反対に、ほとんどの開発者はソリューションに最小限の自信を示したが、オンラインでの支援を求めたり、プライバシの専門家と接触することはめったになく、専門家支援の参加者10人のうち、コンプライアンスの確認を明示的に求めているのはわずか4人だった。
代わりに参加者は、しばしば既存の実装に依存し、機能とセキュリティを第一に実装することに重点を置いていた。
関連論文リスト
- Privacy Bills of Materials: A Transparent Privacy Information Inventory for Collaborative Privacy Notice Generation in Mobile App Development [23.41168782020005]
モバイルアプリのプライバシ情報をキャプチャしてコーディネートするための,システマティックなソフトウェアエンジニアリングアプローチであるPriBOMを紹介します。
PriBOMは、透明性中心のプライバシドキュメントと特定のプライバシ通知の作成を促進し、プライバシプラクティスのトレーサビリティと追跡性を可能にする。
論文 参考訳(メタデータ) (2025-01-02T08:14:52Z) - Multi-P$^2$A: A Multi-perspective Benchmark on Privacy Assessment for Large Vision-Language Models [65.2761254581209]
LVLM(Large Vision-Language Models)21個のオープンソースと2個のクローズドソースのプライバシ保護機能の評価を行った。
Multi-P$2$Aに基づいて、21のオープンソースと2つのクローズドソースLVLMのプライバシ保護機能を評価する。
以上の結果から,現在のLVLMは一般にプライバシー侵害のリスクが高いことが明らかとなった。
論文 参考訳(メタデータ) (2024-12-27T07:33:39Z) - Privacy Leakage Overshadowed by Views of AI: A Study on Human Oversight of Privacy in Language Model Agent [1.5020330976600738]
個人のタスクを代行する言語モデル(LM)エージェントは生産性を向上するが、意図しないプライバシー漏洩のリスクも受けやすい。
本研究は、LMエージェントのプライバシ含意を監督する人々の能力に関する最初の研究である。
論文 参考訳(メタデータ) (2024-11-02T19:15:42Z) - A Large-Scale Privacy Assessment of Android Third-Party SDKs [17.245330733308375]
サードパーティのソフトウェア開発キット(SDK)は、Androidアプリ開発で広く採用されている。
この利便性は、ユーザのプライバシに敏感な情報への不正アクセスに関するかなりの懸念を引き起こす。
当社の研究では,AndroidサードパーティSDK間のユーザプライバシ保護を対象とする分析を行っている。
論文 参考訳(メタデータ) (2024-09-16T15:44:43Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Evaluating Privacy Perceptions, Experience, and Behavior of Software Development Teams [2.818645620433775]
調査には23カ国から362人が参加し、プロダクトマネージャ、開発者、テスタといった役割を担っています。
以上の結果から,SDLC の役割におけるプライバシ定義の多様性が示唆され,SDLC 全体にわたる総合的なプライバシアプローチの必要性が強調された。
ほとんどの参加者はHIPAAや他の規制に精通しており、多段階コンプライアンスが主な関心事である。
論文 参考訳(メタデータ) (2024-04-01T17:55:10Z) - Understanding How to Inform Blind and Low-Vision Users about Data Privacy through Privacy Question Answering Assistants [23.94659412932831]
盲点と低視野(BLV)のユーザは、セキュリティとプライバシのリスクが高まっていますが、リスク軽減は不十分です。
我々の研究は、ユーザビリティ、アクセシビリティ、信頼、およびデジタルデータのプライバシに関する株式問題に関して、BLVユーザの期待に光を当てています。
論文 参考訳(メタデータ) (2023-10-12T19:51:31Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。