論文の概要: Towards Fine-Grained Localization of Privacy Behaviors
- arxiv url: http://arxiv.org/abs/2305.15314v1
- Date: Wed, 24 May 2023 16:32:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 05:45:43.704917
- Title: Towards Fine-Grained Localization of Privacy Behaviors
- Title(参考訳): プライバシー行動の微粒化に向けて
- Authors: Vijayanta Jain, Sepideh Ghanavati, Sai Teja Peddinti, Collin McMillan
- Abstract要約: PriGenは静的解析を使用して、機密情報を処理するAndroidアプリケーションのコードセグメントを識別する。
本稿では,30万のコードセグメントに対する翻訳タスクの初期評価について述べる。
- 参考スコア(独自算出の注目度): 5.74186288696419
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mobile applications are required to give privacy notices to users when they
collect or share personal information. Creating consistent and concise privacy
notices can be a challenging task for developers. Previous work has attempted
to help developers create privacy notices through a questionnaire or predefined
templates. In this paper, we propose a novel approach and a framework, called
PriGen, that extends these prior work. PriGen uses static analysis to identify
Android applications' code segments that process sensitive information (i.e.
permission-requiring code segments) and then leverages a Neural Machine
Translation model to translate them into privacy captions. We present the
initial evaluation of our translation task for ~300,000 code segments.
- Abstract(参考訳): モバイルアプリケーションは、個人情報の収集や共有時にユーザにプライバシー通知を与える必要がある。
一貫性と簡潔なプライバシ通知を作成することは、開発者にとって難しい作業です。
これまでの研究は、開発者がアンケートや事前定義されたテンプレートを通じてプライバシー通知を作成するのに役立ってきた。
本稿では,これらの先行研究を拡張した新しいアプローチとフレームワーク,prigenを提案する。
PriGenは静的解析を使用して、機密情報(すなわちパーミッション要求コードセグメント)を処理するAndroidアプリケーションのコードセグメントを特定し、ニューラルネットワーク翻訳モデルを利用してプライバシキャプションに変換する。
約30万のコードセグメントに対する翻訳タスクの初期評価を行った。
関連論文リスト
- A Large-Scale Privacy Assessment of Android Third-Party SDKs [17.245330733308375]
サードパーティのソフトウェア開発キット(SDK)は、Androidアプリ開発で広く採用されている。
この利便性は、ユーザのプライバシに敏感な情報への不正アクセスに関するかなりの懸念を引き起こす。
当社の研究では,AndroidサードパーティSDK間のユーザプライバシ保護を対象とする分析を行っている。
論文 参考訳(メタデータ) (2024-09-16T15:44:43Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - {A New Hope}: Contextual Privacy Policies for Mobile Applications and An
Approach Toward Automated Generation [19.578130824867596]
コンテキストプライバシポリシ(CPP)の目的は、プライバシポリシを簡潔なスニペットに断片化し、アプリケーションのグラフィカルユーザインターフェース(GUI)内の対応するコンテキスト内でのみ表示することである。
本稿では,モバイルアプリケーションシナリオでCPPを初めて定式化し,モバイルアプリケーション用のCPPを自動生成するSeePrivacyという新しいマルチモーダルフレームワークを提案する。
人間の評価では、抽出されたプライバシーポリシーセグメントの77%が、検出されたコンテキストと適切に一致していると認識されている。
論文 参考訳(メタデータ) (2024-02-22T13:32:33Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt Engineer [57.04801796205638]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - PriGen: Towards Automated Translation of Android Applications' Code to
Privacy Captions [4.2534846356464815]
PriGenは静的解析を使用して、機密情報を処理するAndroidアプリケーションのコードセグメントを識別する。
我々は,翻訳タスクの初期評価を$sim$300,000のコードセグメントに対して提示する。
論文 参考訳(メタデータ) (2023-05-11T01:14:28Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Mining User Privacy Concern Topics from App Reviews [10.776958968245589]
アプリストアのアプリレビューを通じて、プライバシー上の懸念を訴えるユーザーが増えている。
プライバシーに関する懸念をユーザーレビューから効果的に掘り下げる主な課題は、プライバシーに関する懸念を表すレビューが、より一般的なテーマや騒々しいコンテンツを表す多くのレビューによって過大評価されているという事実にある。
本研究では,この課題を克服するための新しい自動化手法を提案する。
論文 参考訳(メタデータ) (2022-12-19T08:07:27Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。