論文の概要: Which Code Statements Implement Privacy Behaviors in Android Applications?
- arxiv url: http://arxiv.org/abs/2503.02091v1
- Date: Mon, 03 Mar 2025 22:20:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:22:32.154811
- Title: Which Code Statements Implement Privacy Behaviors in Android Applications?
- Title(参考訳): Androidアプリケーションでプライバシの振る舞いを実装するコード文は?
- Authors: Chia-Yi Su, Aakash Bansal, Vijayanta Jain, Sepideh Ghanavati, Sai Teja Peddinti, Collin McMillan,
- Abstract要約: ソフトウェアにおけるプライバシ行動(英: "privacy behavior")とは、ソフトウェアがサービスや機能のために個人情報を使用する行為である。
本研究では,3つの大規模言語モデルにデータを加え,プライバシー関連文を自動的に検出する手法を提案する。
- 参考スコア(独自算出の注目度): 5.723067425160506
- License:
- Abstract: A "privacy behavior" in software is an action where the software uses personal information for a service or a feature, such as a website using location to provide content relevant to a user. Programmers are required by regulations or application stores to provide privacy notices and labels describing these privacy behaviors. Although many tools and research prototypes have been developed to help programmers generate these notices by analyzing the source code, these approaches are often fairly coarse-grained (i.e., at the level of whole methods or files, rather than at the statement level). But this is not necessarily how privacy behaviors exist in code. Privacy behaviors are embedded in specific statements in code. Current literature does not examine what statements programmers see as most important, how consistent these views are, or how to detect them. In this paper, we conduct an empirical study to examine which statements programmers view as most-related to privacy behaviors. We find that expression statements that make function calls are most associated with privacy behaviors, while the type of privacy label has little effect on the attributes of the selected statements. We then propose an approach to automatically detect these privacy-relevant statements by fine-tuning three large language models with the data from the study. We observe that the agreement between our approach and participants is comparable to or higher than an agreement between two participants. Our study and detection approach can help programmers understand which statements in code affect privacy in mobile applications.
- Abstract(参考訳): ソフトウェアにおけるプライバシ行動(英: "privacy behavior")とは、ソフトウェアがサービスや機能のために個人情報を使用する行為である。
プログラマは、これらのプライバシの振る舞いを記述するプライバシー通知やラベルを提供するために、規制やアプリケーションストアによって要求される。
ソースコードを分析することで、プログラマがこれらの通知を生成するのを助けるために、多くのツールや研究のプロトタイプが開発されているが、これらのアプローチは、しばしばかなり粗い粒度である(すなわち、ステートメントレベルではなく、メソッドやファイル全体のレベルで)。
しかし、これは必ずしもプライバシの振る舞いがコードの中に存在するわけではない。
プライバシの振る舞いはコード内の特定のステートメントに埋め込まれます。
現在の文献では、プログラマがどのステートメントが最も重要であると考えているか、これらのビューがどの程度一貫性があるか、どのようにそれらを検出するかは調査されていない。
本稿では,プログラマがどのステートメントをプライバシ行動に最も関連していると考えているかを調べるための実証的研究を行う。
関数呼び出しを行う式ステートメントは、プライバシの振る舞いに最も関連しているのに対して、プライバシラベルの種類は、選択されたステートメントの属性にほとんど影響しない。
次に,これらのプライバシー関連文を自動的に検出するアプローチを提案し,そのデータを用いて3つの大きな言語モデルを微調整する。
我々は,我々のアプローチと参加者の合意が,2人の参加者の合意と同等以上のものであることを観察する。
我々の研究と検出アプローチは、プログラマがコードのどの文がモバイルアプリケーションのプライバシーに影響を与えるかを理解するのに役立ちます。
関連論文リスト
- Exploring User Privacy Awareness on GitHub: An Empirical Study [5.822284390235265]
GitHubは、開発者にソースコードを配布し、共通のプロジェクトで協力する実践的な方法を提供する。
アカウントのセキュリティとプライバシを強化するため、GitHubでは、アクセス権限の管理、監査ログのレビュー、二要素認証を有効にしている。
この努力にもかかわらず、このプラットフォームはユーザーのプライバシーに関するさまざまな問題に直面している。
論文 参考訳(メタデータ) (2024-09-06T06:41:46Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Finding Privacy-relevant Source Code [0.0]
本稿では、個人情報の処理に直接関与するコードの特定の方法であるプライバシー関連手法について紹介する。
次に、ソースコード内のこれらのプライバシ関連メソッドを特定し分類することで、コードレビューを支援する自動アプローチを提案する。
評価の結果,100個のオープンソースアプリケーションについて検討した結果,個人データ処理のプライバシ関連性は5%未満であることが判明した。
論文 参考訳(メタデータ) (2024-01-14T15:38:29Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Towards Fine-Grained Localization of Privacy Behaviors [5.74186288696419]
PriGenは静的解析を使用して、機密情報を処理するAndroidアプリケーションのコードセグメントを識別する。
本稿では,30万のコードセグメントに対する翻訳タスクの初期評価について述べる。
論文 参考訳(メタデータ) (2023-05-24T16:32:14Z) - PriGen: Towards Automated Translation of Android Applications' Code to
Privacy Captions [4.2534846356464815]
PriGenは静的解析を使用して、機密情報を処理するAndroidアプリケーションのコードセグメントを識別する。
我々は,翻訳タスクの初期評価を$sim$300,000のコードセグメントに対して提示する。
論文 参考訳(メタデータ) (2023-05-11T01:14:28Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。