論文の概要: SoK: Demystifying Privacy Enhancing Technologies Through the Lens of
Software Developers
- arxiv url: http://arxiv.org/abs/2401.00879v1
- Date: Sat, 30 Dec 2023 12:24:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 15:18:55.936961
- Title: SoK: Demystifying Privacy Enhancing Technologies Through the Lens of
Software Developers
- Title(参考訳): sok: ソフトウェア開発者のレンズによるプライバシー強化技術を幻滅させる
- Authors: Maisha Boteju, Thilina Ranbaduge, Dinusha Vatsalan, Nalin Asanka
Gamagedara Arachchilage
- Abstract要約: データ保護措置がなければ、ソフトウェアアプリケーションはプライバシー侵害につながる。
本稿では,開発者プライバシプラクティスに関する39の実証的研究を概説する。
ソフトウェアアプリケーションのシナリオで6つのPETが使われていることを報告している。
PETをソフトウェアに統合する際に開発者が直面する課題について論じる。
- 参考スコア(独自算出の注目度): 4.171555557592296
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the absence of data protection measures, software applications lead to
privacy breaches, posing threats to end-users and software organisations.
Privacy Enhancing Technologies (PETs) are technical measures that protect
personal data, thus minimising such privacy breaches. However, for software
applications to deliver data protection using PETs, software developers should
actively and correctly incorporate PETs into the software they develop.
Therefore, to uncover ways to encourage and support developers to embed PETs
into software, this Systematic Literature Review (SLR) analyses 39 empirical
studies on developers' privacy practices. It reports the usage of six PETs in
software application scenarios. Then, it discusses challenges developers face
when integrating PETs into software, ranging from intrinsic challenges, such as
the unawareness of PETs, to extrinsic challenges, such as the increased
development cost. Next, the SLR presents the existing solutions to address
these challenges, along with the limitations of the solutions. Further, it
outlines future research avenues to better understand PETs from a developer
perspective and minimise the challenges developers face when incorporating PETs
into software.
- Abstract(参考訳): データ保護対策がなければ、ソフトウェアアプリケーションはプライバシー侵害につながり、エンドユーザやソフトウェア組織に脅威をもたらす。
プライバシー強化技術(PET)は個人情報を保護する技術的手段であり、プライバシー侵害を最小限に抑える。
しかし、ソフトウェアアプリケーションがPETを使用してデータ保護を提供するためには、ソフトウェア開発者はPETを開発中のソフトウェアに積極的に正しく組み込む必要がある。
したがって、開発者がPETをソフトウェアに組み込むのを奨励し支援する方法を明らかにするために、SLR(Systematic Literature Review)は、開発者のプライバシプラクティスに関する39の実証的研究を分析します。
ソフトウェアアプリケーションシナリオにおける6匹のペットの利用を報告している。
次に、ペットをソフトウェアに組み込む際に直面する課題について論じ、ペットの無知のような本質的な課題から、開発コストの増大など、広範囲にわたる課題までについて論じる。
次に、SLRはこれらの課題に対処するための既存のソリューションとソリューションの制限を提示します。
さらに、開発者はPETをより深く理解し、PETをソフトウェアに組み込む際に開発者が直面する課題を最小限に抑えるために、今後の研究の道筋を概説している。
関連論文リスト
- AutoPT: How Far Are We from the End2End Automated Web Penetration Testing? [54.65079443902714]
LLMによって駆動されるPSMの原理に基づく自動浸透試験エージェントであるAutoPTを紹介する。
以上の結果から, AutoPT は GPT-4o ミニモデル上でのベースラインフレームワーク ReAct よりも優れていた。
論文 参考訳(メタデータ) (2024-11-02T13:24:30Z) - Integrating PETs into Software Applications: A Game-Based Learning Approach [2.7186493234782527]
PETs-101は、開発者がPETをソフトウェアに統合する動機となる新しいゲームベースの学習フレームワークである。
開発者のプライバシ保護ソフトウェア開発行動を改善することを目的としている。
論文 参考訳(メタデータ) (2024-10-01T13:15:46Z) - Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z) - Developers' Perceptions on the Impact of ChatGPT in Software Development: A Survey [13.257222195239375]
ソフトウェアの品質、生産性、仕事満足度に対するChatGPTの影響を理解するため、207人のソフトウェア開発者と調査を行った。
この研究は、ChatGPTの今後の適応に関する開発者の期待、潜在的な仕事の移転に関する懸念、規制介入の視点について詳しく述べている。
論文 参考訳(メタデータ) (2024-05-20T17:31:16Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - Privacy-Enhancing Technologies for Artificial Intelligence-Enabled Systems [0.0]
人工知能(AI)モデルは、システムにプライバシーの脆弱性を導入する。
これらの脆弱性は、モデル開発、デプロイメント、推論フェーズの間に存在する。
我々は、AI対応システムを保護するために、いくつかのプライバシー強化技術(PET)の使用を提案する。
論文 参考訳(メタデータ) (2024-04-04T15:14:40Z) - Reconciling AI Performance and Data Reconstruction Resilience for
Medical Imaging [52.578054703818125]
人工知能(AI)モデルは、トレーニングデータの情報漏洩に対して脆弱であり、非常に敏感である。
差別化プライバシ(DP)は、定量的なプライバシー予算を設定することで、これらの感受性を回避することを目的としている。
非常に大きなプライバシ予算を使用することで、リコンストラクション攻撃は不可能であり、パフォーマンスの低下は無視可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T12:21:30Z) - When PETs misbehave: A Contextual Integrity analysis [0.7397067779113841]
私たちは、プライバシー技術がプライバシーを損なうためにどのように悪用されるかを説明するために、コンテキスト統合の理論を使用します。
年齢検証のための匿名認証、不正コンテンツ検出のためのクライアント側スキャン、機械学習モデルのトレーニングのための同型暗号化の3つのPETとシナリオについて検討する。
論文 参考訳(メタデータ) (2023-12-05T05:27:43Z) - Embedded Software Development with Digital Twins: Specific Requirements
for Small and Medium-Sized Enterprises [55.57032418885258]
デジタル双生児は、コスト効率の良いソフトウェア開発とメンテナンス戦略の可能性を秘めている。
私たちは中小企業に現在の開発プロセスについてインタビューした。
最初の結果は、リアルタイムの要求が、これまでは、Software-in-the-Loop開発アプローチを妨げていることを示している。
論文 参考訳(メタデータ) (2023-09-17T08:56:36Z) - Mitigating Sovereign Data Exchange Challenges: A Mapping to Apply
Privacy- and Authenticity-Enhancing Technologies [67.34625604583208]
AET(Authenticity Enhancing Technologies)とPET(Privacy-Enhancing Technologies)は、SDE(Sovereign Data Exchange)に関与していると考えられている。
PETとAETは技術的に複雑であり、採用を妨げる。
本研究は,挑戦指向技術マッピングを実証的に構築する。
論文 参考訳(メタデータ) (2022-06-20T08:16:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。