論文の概要: Understanding Help Seeking for Digital Privacy, Safety, and Security
- arxiv url: http://arxiv.org/abs/2601.11398v1
- Date: Fri, 16 Jan 2026 16:10:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.546844
- Title: Understanding Help Seeking for Digital Privacy, Safety, and Security
- Title(参考訳): デジタルプライバシ、安全性、セキュリティの探究を支援することを理解する
- Authors: Kurt Thomas, Sai Teja Peddinti, Sarah Meiklejohn, Tara Matthews, Amelia Hassoun, Animesh Srivastava, Jessica McClearn, Patrick Gage Kelley, Sunny Consolvo, Nina Taft,
- Abstract要約: われわれはRedditに10億件以上の投稿を投稿し、ユーザーがデジタルプライバシー、安全、セキュリティの助けを求める場所と場所を特定した。
93%の精度で300万件の関連投稿を分離し,それぞれにトピックを自動注釈する。
このデータセットを使って、助けを求める範囲と規模、助けを提供するコミュニティ、助けを求めるタイプを理解します。
- 参考スコア(独自算出の注目度): 13.778698491438114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The complexity of navigating digital privacy, safety, and security threats often falls directly on users. This leads to users seeking help from family and peers, platforms and advice guides, dedicated communities, and even large language models (LLMs). As a precursor to improving resources across this ecosystem, our community needs to understand what help seeking looks like in the wild. To that end, we blend qualitative coding with LLM fine-tuning to sift through over one billion Reddit posts from the last four years to identify where and for what users seek digital privacy, safety, or security help. We isolate three million relevant posts with 93% precision and recall and automatically annotate each with the topics discussed (e.g., security tools, privacy configurations, scams, account compromise, content moderation, and more). We use this dataset to understand the scope and scale of help seeking, the communities that provide help, and the types of help sought. Our work informs the development of better resources for users (e.g., user guides or LLM help-giving agents) while underscoring the inherent challenges of supporting users through complex combinations of threats, platforms, mitigations, context, and emotions.
- Abstract(参考訳): デジタルプライバシ、安全性、セキュリティの脅威をナビゲートする複雑さは、しばしばユーザーに直接影響しない。
これは、家族や仲間、プラットフォームやアドバイスガイド、専用のコミュニティ、さらには大きな言語モデル(LLM)から助けを求めるユーザにつながります。
このエコシステム全体のリソース改善の先駆けとして、私たちのコミュニティは、荒野での探究に役立つものを理解する必要があります。
そのために、LLMの微調整と定性的なコーディングを融合して、過去4年間のRedditの投稿10億件を精査し、ユーザーがデジタルプライバシ、安全、セキュリティの助けを求める場所と場所を特定します。
私たちは300万件の関連投稿を93%の精度で切り離してリコールし、それぞれにトピック(セキュリティツール、プライバシー設定、詐欺、アカウントの妥協、コンテンツモデレーションなど)をアノテートします。
このデータセットを使って、助けを求める範囲と規模、助けを提供するコミュニティ、助けを求めるタイプを理解します。
我々の研究は、脅威、プラットフォーム、緩和、コンテキスト、感情の複雑な組み合わせを通じてユーザを支援するという、固有の課題を浮き彫りにして、ユーザのためのより良いリソース(例えば、ユーザーガイドやLLM支援エージェント)の開発に報いる。
関連論文リスト
- Understanding Users' Security and Privacy Concerns and Attitudes Towards Conversational AI Platforms [3.789219860006095]
r/ChatGPT Redditコミュニティから250万以上のユーザ投稿を大規模に分析して、ユーザのセキュリティとプライバシに関する懸念を理解する。
データライフサイクルの各ステージ(すなわち、収集、使用、保持など)にユーザが関心を持っていることが分かりました。
透明性を高め、データコントロールを改善し、ユーザの信頼と採用を高めるために、ユーザ、プラットフォーム、企業、および政策立案者にレコメンデーションを提供します。
論文 参考訳(メタデータ) (2025-04-09T03:22:48Z) - A Systematic Review of Security Communication Strategies: Guidelines and Open Challenges [47.205801464292485]
情報過負荷や技術的理解,セキュリティ意識と快適さのバランスなど,ユーザの難しさを識別する。
利用者は信頼性に関する技術的詳細が必要であるが、ジャーゴンに苦慮し、不安を経験することなくリスクを認識する必要がある。
この作業は,サイバーセキュリティの脅威を認識し,適切な対応を可能にする,より効果的なセキュリティコミュニケーションプラクティスに寄与する。
論文 参考訳(メタデータ) (2025-04-02T20:18:38Z) - Do LLMs Consider Security? An Empirical Study on Responses to Programming Questions [10.69738882390809]
ChatGPTは、開発者にコンテキスト固有の情報をボランティアして、安全なコーディングプラクティスを促進する。
我々は,3つのLLM(Claude 3, GPT-4, Llama 3)が示すセキュリティ意識の程度を評価する。
私たちの調査によると、3つのモデルすべてが、脆弱性を正確に検知し、ユーザに警告するのに苦労しており、データセット全体の検出率は12.6%から40%に過ぎません。
論文 参考訳(メタデータ) (2025-02-20T02:20:06Z) - Towards Safety and Helpfulness Balanced Responses via Controllable Large Language Models [64.5204594279587]
安全性を優先するモデルでは、ユーザがエンゲージメントやアシストを減らし、利便性の優先順位付けが害をもたらす可能性がある。
大規模言語モデルにおける両方の属性を制御することにより,多様なユースケースにおける安全性と利便性のバランスをとることを提案する。
論文 参考訳(メタデータ) (2024-04-01T17:59:06Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Rainbow Teaming: Open-Ended Generation of Diverse Adversarial Prompts [57.49685172971446]
敵のプロンプトを多種多様に集めるための新しいブラックボックスアプローチであるレインボー・ブッキングを紹介する。
提案手法では, 攻撃成功率が90%を超え, 効果的に対抗できるプロンプトが何百もあることが明らかとなった。
さらに、質問応答とサイバーセキュリティに適用することで、レインボーチーム(Rainbow Teaming)の汎用性についても検討する。
論文 参考訳(メタデータ) (2024-02-26T18:47:27Z) - Evaluating the Security and Privacy Risk Postures of Virtual Assistants [3.1943453294492543]
Alexa、Braina、Cortana、Google Assistant、Kalliope、Mycroft、Hound、Extremeの8つの広く使われている音声アシスタントのセキュリティとプライバシーの姿勢を評価した。
その結果、これらのVAは様々なセキュリティ脅威に対して脆弱であることが判明した。
これらの脆弱性は、悪意のあるアクターがユーザーの個人情報を不正にアクセスできるようにする可能性がある。
論文 参考訳(メタデータ) (2023-12-22T12:10:52Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Personalized multi-faceted trust modeling to determine trust links in
social media and its potential for misinformation management [61.88858330222619]
ソーシャルメディアにおけるピア間の信頼関係を予測するためのアプローチを提案する。
本稿では,データ駆動型多面信頼モデルを提案する。
信頼を意識したアイテムレコメンデーションタスクで説明され、提案したフレームワークを大規模なYelpデータセットのコンテキストで評価する。
論文 参考訳(メタデータ) (2021-11-11T19:40:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。