論文の概要: Finding Privacy-relevant Source Code
- arxiv url: http://arxiv.org/abs/2401.07316v1
- Date: Sun, 14 Jan 2024 15:38:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 18:59:45.955903
- Title: Finding Privacy-relevant Source Code
- Title(参考訳): プライバシ関連ソースコードの検索
- Authors: Feiyang Tang and Bjarte M. {\O}stvold
- Abstract要約: 本稿では、個人情報の処理に直接関与するコードの特定の方法であるプライバシー関連手法について紹介する。
次に、ソースコード内のこれらのプライバシ関連メソッドを特定し分類することで、コードレビューを支援する自動アプローチを提案する。
評価の結果,100個のオープンソースアプリケーションについて検討した結果,個人データ処理のプライバシ関連性は5%未満であることが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Privacy code review is a critical process that enables developers and legal
experts to ensure compliance with data protection regulations. However, the
task is challenging due to resource constraints. To address this, we introduce
the concept of privacy-relevant methods - specific methods in code that are
directly involved in the processing of personal data. We then present an
automated approach to assist in code review by identifying and categorizing
these privacy-relevant methods in source code.
Using static analysis, we identify a set of methods based on their
occurrences in 50 commonly used libraries. We then rank these methods according
to their frequency of invocation with actual personal data in the top 30 GitHub
applications. The highest-ranked methods are the ones we designate as
privacy-relevant in practice. For our evaluation, we examined 100 open-source
applications and found that our approach identifies fewer than 5% of the
methods as privacy-relevant for personal data processing. This reduces the time
required for code reviews. Case studies on Signal Desktop and Cal.com further
validate the effectiveness of our approach in aiding code reviewers to produce
enhanced reports that facilitate compliance with privacy regulations.
- Abstract(参考訳): プライバシコードレビューは、開発者と法律の専門家がデータ保護規則の遵守を保証するための重要なプロセスである。
しかし、リソースの制約のためタスクは困難である。
この問題に対処するために、個人データの処理に直接関与するコードの特定の方法であるプライバシ関連メソッドの概念を紹介します。
次に、ソースコード内のこれらのプライバシ関連メソッドを特定し分類することで、コードレビューを支援する自動アプローチを提案する。
静的解析を用いて,50の一般的なライブラリにおけるそれらの発生に基づいて,一連のメソッドを識別する。
次に、これらのメソッドを、githubアプリケーションのトップ30の実際の個人データと呼び出し頻度に従ってランク付けします。
最高ランクのメソッドは、実際にはプライバシに関連するものとして指定するメソッドです。
評価のために,100のオープンソースアプリケーションを調査した結果,プライバシ関連の個人データ処理手法の5%に満たないことがわかった。
これにより、コードレビューに要する時間を削減できる。
Signal Desktop と Cal.com のケーススタディでは,プライバシ規制の遵守を容易にする拡張レポートの作成を支援するコードレビュアーのアプローチの有効性をさらに検証している。
関連論文リスト
- FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Helping Code Reviewer Prioritize: Pinpointing Personal Data and its
Processing [0.9238700679836852]
我々は、コードレビュアーが個人データに関連する作業の優先順位付けを支援するために、2つの専門的なビューを設計しました。
当社のアプローチは、4つのオープンソースGitHubアプリケーションで評価され、個人データフローを識別する精度が0.87であることを示した。
このソリューションは、ROPA(Record of Processing Activity)のようなプライバシ関連の分析タスクの効率を高めるために設計されており、リソースの保存、時間節約、コードレビュアーの生産性向上を目的としている。
論文 参考訳(メタデータ) (2023-06-20T12:30:46Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Mining User Privacy Concern Topics from App Reviews [10.776958968245589]
アプリストアのアプリレビューを通じて、プライバシー上の懸念を訴えるユーザーが増えている。
プライバシーに関する懸念をユーザーレビューから効果的に掘り下げる主な課題は、プライバシーに関する懸念を表すレビューが、より一般的なテーマや騒々しいコンテンツを表す多くのレビューによって過大評価されているという事実にある。
本研究では,この課題を克服するための新しい自動化手法を提案する。
論文 参考訳(メタデータ) (2022-12-19T08:07:27Z) - A General Framework for Auditing Differentially Private Machine Learning [27.99806936918949]
本稿では,差分プライベートな学習者によって与えられるプライバシ保証を統計的に評価する枠組みを提案する。
本研究は、微分プライベート機械学習実装のプライバシを実証的に評価する一般的な手法を開発する。
論文 参考訳(メタデータ) (2022-10-16T21:34:18Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - How to keep text private? A systematic review of deep learning methods
for privacy-preserving natural language processing [0.38073142980732994]
記事は2016年から2020年にかけて発行されたプライバシー保護NLPに関する60以上の方法を体系的にレビューしている。
本稿では,既存の手法を3つのカテゴリに分類する新しい分類法を提案する。
我々は、データトレーサビリティ、オーバーヘッドデータセットサイズ、埋め込みにおける人間のバイアスの頻度に関するプライバシー保護NLPのオープンな課題について論じる。
論文 参考訳(メタデータ) (2022-05-20T11:29:44Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。