論文の概要: Exploring User Privacy Awareness on GitHub: An Empirical Study
- arxiv url: http://arxiv.org/abs/2409.04048v1
- Date: Fri, 6 Sep 2024 06:41:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-09 16:36:07.825370
- Title: Exploring User Privacy Awareness on GitHub: An Empirical Study
- Title(参考訳): GitHubでユーザプライバシの意識を探る - 実証的研究
- Authors: Costanza Alfieri, Juri Di Rocco, Phuong T. Nguyen, Paola Inverardi,
- Abstract要約: GitHubは、開発者にソースコードを配布し、共通のプロジェクトで協力する実践的な方法を提供する。
アカウントのセキュリティとプライバシを強化するため、GitHubでは、アクセス権限の管理、監査ログのレビュー、二要素認証を有効にしている。
この努力にもかかわらず、このプラットフォームはユーザーのプライバシーに関するさまざまな問題に直面している。
- 参考スコア(独自算出の注目度): 5.822284390235265
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: GitHub provides developers with a practical way to distribute source code and collaboratively work on common projects. To enhance account security and privacy, GitHub allows its users to manage access permissions, review audit logs, and enable two-factor authentication. However, despite the endless effort, the platform still faces various issues related to the privacy of its users. This paper presents an empirical study delving into the GitHub ecosystem. Our focus is on investigating the utilization of privacy settings on the platform and identifying various types of sensitive information disclosed by users. Leveraging a dataset comprising 6,132 developers, we report and analyze their activities by means of comments on pull requests. Our findings indicate an active engagement by users with the available privacy settings on GitHub. Notably, we observe the disclosure of different forms of private information within pull request comments. This observation has prompted our exploration into sensitivity detection using a large language model and BERT, to pave the way for a personalized privacy assistant. Our work provides insights into the utilization of existing privacy protection tools, such as privacy settings, along with their inherent limitations. Essentially, we aim to advance research in this field by providing both the motivation for creating such privacy protection tools and a proposed methodology for personalizing them.
- Abstract(参考訳): GitHubは、開発者にソースコードを配布し、共通のプロジェクトで共同作業するための実践的な方法を提供する。
アカウントのセキュリティとプライバシを強化するため、GitHubでは、アクセス権限の管理、監査ログのレビュー、二要素認証を有効にしている。
しかし、この努力にもかかわらず、プラットフォームはユーザーのプライバシーに関する様々な問題に直面している。
本稿では,GitHubエコシステムに関する実証的研究を紹介する。
我々の焦点は、プラットフォーム上でのプライバシー設定の活用と、ユーザーが開示した各種機密情報の特定である。
6,132人の開発者からなるデータセットを活用して、プルリクエストに対するコメントによってアクティビティを報告し、分析する。
以上の結果から,GitHub上のプライバシ設定が利用可能なユーザによる積極的な関与が示唆された。
特に、プルリクエストコメント内で異なる形式のプライベート情報の開示を観察する。
この観察により、大きな言語モデルとBERTを用いた感度検出の探索が進められ、パーソナライズされたプライバシアシスタントの道が拓かれた。
私たちの研究は、プライバシー設定などの既存のプライバシ保護ツールの利用と、その固有の制限に関する洞察を提供します。
本研究の目的は,このようなプライバシ保護ツールを開発する動機と,それをパーソナライズするための方法論を両立させることである。
関連論文リスト
- A Large-Scale Privacy Assessment of Android Third-Party SDKs [17.245330733308375]
サードパーティのソフトウェア開発キット(SDK)は、Androidアプリ開発で広く採用されている。
この利便性は、ユーザのプライバシに敏感な情報への不正アクセスに関するかなりの懸念を引き起こす。
当社の研究では,AndroidサードパーティSDK間のユーザプライバシ保護を対象とする分析を行っている。
論文 参考訳(メタデータ) (2024-09-16T15:44:43Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - {A New Hope}: Contextual Privacy Policies for Mobile Applications and An
Approach Toward Automated Generation [19.578130824867596]
コンテキストプライバシポリシ(CPP)の目的は、プライバシポリシを簡潔なスニペットに断片化し、アプリケーションのグラフィカルユーザインターフェース(GUI)内の対応するコンテキスト内でのみ表示することである。
本稿では,モバイルアプリケーションシナリオでCPPを初めて定式化し,モバイルアプリケーション用のCPPを自動生成するSeePrivacyという新しいマルチモーダルフレームワークを提案する。
人間の評価では、抽出されたプライバシーポリシーセグメントの77%が、検出されたコンテキストと適切に一致していると認識されている。
論文 参考訳(メタデータ) (2024-02-22T13:32:33Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Mining User Privacy Concern Topics from App Reviews [10.776958968245589]
アプリストアのアプリレビューを通じて、プライバシー上の懸念を訴えるユーザーが増えている。
プライバシーに関する懸念をユーザーレビューから効果的に掘り下げる主な課題は、プライバシーに関する懸念を表すレビューが、より一般的なテーマや騒々しいコンテンツを表す多くのレビューによって過大評価されているという事実にある。
本研究では,この課題を克服するための新しい自動化手法を提案する。
論文 参考訳(メタデータ) (2022-12-19T08:07:27Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Statistical Feature-based Personal Information Detection in Mobile
Network Traffic [13.568975395946433]
本稿では、交通における個人情報の発生パターンを統計的に表現するために、個人情報の統計的特徴を設計する。
検出器は機械学習アルゴリズムに基づいてトレーニングされ、同様のパターンで潜在的な個人情報を検出する。
われわれの知る限りでは、統計的特徴に基づいて個人情報を検出するのはこれが初めてだ。
論文 参考訳(メタデータ) (2021-12-23T04:01:16Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。