論文の概要: Mining User Privacy Concern Topics from App Reviews
- arxiv url: http://arxiv.org/abs/2212.09289v4
- Date: Wed, 11 Oct 2023 07:48:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 13:56:45.811427
- Title: Mining User Privacy Concern Topics from App Reviews
- Title(参考訳): アプリのレビューからユーザーのプライバシーに関する話題を掘り下げる
- Authors: Jianzhang Zhang, Jinping Hua, Yiyang Chen, Nan Niu, Chuang Liu
- Abstract要約: アプリストアのアプリレビューを通じて、プライバシー上の懸念を訴えるユーザーが増えている。
プライバシーに関する懸念をユーザーレビューから効果的に掘り下げる主な課題は、プライバシーに関する懸念を表すレビューが、より一般的なテーマや騒々しいコンテンツを表す多くのレビューによって過大評価されているという事実にある。
本研究では,この課題を克服するための新しい自動化手法を提案する。
- 参考スコア(独自算出の注目度): 10.776958968245589
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Context: As mobile applications (Apps) widely spread over our society and
life, various personal information is constantly demanded by Apps in exchange
for more intelligent and customized functionality. An increasing number of
users are voicing their privacy concerns through app reviews on App stores.
Objective: The main challenge of effectively mining privacy concerns from
user reviews lies in the fact that reviews expressing privacy concerns are
overridden by a large number of reviews expressing more generic themes and
noisy content. In this work, we propose a novel automated approach to overcome
that challenge.
Method: Our approach first employs information retrieval and document
embeddings to unsupervisedly extract candidate privacy reviews that are further
labeled to prepare the annotation dataset. Then, supervised classifiers are
trained to automatically identify privacy reviews. Finally, we design an
interpretable topic mining algorithm to detect privacy concern topics contained
in the privacy reviews.
Results: Experimental results show that the best performed document embedding
achieves an average precision of 96.80% in the top 100 retrieved candidate
privacy reviews. All of the trained privacy review classifiers can achieve an
F1 value of more than 91%, outperforming the recent keywords matching baseline
with the maximum F1 margin being 7.5%. For detecting privacy concern topics
from privacy reviews, our proposed algorithm achieves both better topic
coherence and diversity than three strong topic modeling baselines including
LDA.
Conclusion: Empirical evaluation results demonstrate the effectiveness of our
approach in identifying privacy reviews and detecting user privacy concerns
expressed in App reviews.
- Abstract(参考訳): コンテキスト: モバイルアプリケーション(アプリ)が私たちの社会や生活に広く普及するにつれ、さまざまな個人情報が、よりインテリジェントでカスタマイズされた機能と引き換えに、アプリによって常に要求されます。
アプリストアでのアプリレビューを通じて、プライバシーの懸念を訴えるユーザーが増えている。
目的: ユーザーレビューから効果的にプライバシー上の懸念を掘り下げる主な課題は、プライバシーに関する懸念を表すレビューが、より一般的なテーマや騒々しいコンテンツを表す多くのレビューによって過大評価されているという事実にある。
本研究では,この課題を克服するための新しい自動アプローチを提案する。
方法:本手法では,まず情報検索と文書埋め込みを用いて,アノテーションデータセットを作成するためにラベル付けされた候補プライバシレビューを教師なしに抽出する。
監視された分類器は、自動的にプライバシーレビューを識別するように訓練される。
最後に,プライバシレビューに含まれるプライバシに関するトピックを検出するために,解釈可能なトピックマイニングアルゴリズムを設計する。
結果: 実験の結果, 検索されたプライバシレビューの上位100項目中, 96.80%の平均精度を達成した。
トレーニングされたすべてのプライバシレビュー分類器は91%以上のF1値を達成でき、F1マージンが最大7.5%である最近のキーワードマッチングベースラインを上回っている。
プライバシに関するトピックをプライバシレビューから検出するために,提案アルゴリズムはLDAを含む3つの強力なトピックモデリングベースラインよりも優れたトピックコヒーレンスと多様性を実現する。
結論: 実証評価の結果, プライバシレビューを識別し, ユーザプライバシの懸念を検出するアプローチの有効性が示された。
関連論文リスト
- Beyond Keywords: A Context-based Hybrid Approach to Mining Ethical Concern-related App Reviews [0.0]
倫理的懸念に関連するアプリケーションレビューは一般的にドメイン固有の言語を使用し、より多様な語彙を使って表現される。
本研究では、自然言語推論(NLI)とデコーダ限定(LLaMAライク)大規模言語モデル(LLM)を組み合わせて、倫理的関心事に関するアプリレビューを大規模に抽出する、新しい自然言語処理(NLI)アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-11T22:08:48Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - A Decade of Privacy-Relevant Android App Reviews: Large Scale Trends [20.714617724462393]
私たちは、時間、国、アプリタイプ、さまざまなプライバシトピック、さらにはさまざまな感情にまたがって、ユーザーがプライバシーについて何を書いているかを調べます。
プライバシーレビューは200か国以上から来るが、33か国はプライバシーレビューの90%を提供している。
驚いたことに、プライバシーを議論するレビューが肯定的であることは珍しくない(32%)。
論文 参考訳(メタデータ) (2024-03-04T18:21:56Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Systematic Review on Privacy Categorization [1.5377372227901214]
本研究は,プライバシ分類に関する文献を体系的にレビューすることを目的としている。
プライバシーの分類には、特定の前提条件に従ってユーザーを分類する機能が含まれる。
論文 参考訳(メタデータ) (2023-07-07T15:18:26Z) - SeePrivacy: Automated Contextual Privacy Policy Generation for Mobile
Applications [21.186902172367173]
SeePrivacyは、モバイルアプリのコンテキストプライバシポリシを自動的に生成するように設計されている。
本手法は,モバイルGUI理解とプライバシポリシ文書解析を相乗的に組み合わせた手法である。
検索されたポリシーセグメントの96%は、そのコンテキストと正しく一致させることができる。
論文 参考訳(メタデータ) (2023-07-04T12:52:45Z) - ATLAS: Automatically Detecting Discrepancies Between Privacy Policies
and Privacy Labels [2.457872341625575]
自動プライバシラベル解析システム(ATLAS)について紹介する。
ATLASは、モバイルアプリのプライバシーポリシーとプライバシーラベルの相違点を特定する。
平均して、アプリには5.32のコンプライアンス上の問題があることがわかっています。
論文 参考訳(メタデータ) (2023-05-24T05:27:22Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。