論文の概要: Rescriber: Smaller-LLM-Powered User-Led Data Minimization for Navigating Privacy Trade-offs in LLM-Based Conversational Agent
- arxiv url: http://arxiv.org/abs/2410.11876v1
- Date: Thu, 10 Oct 2024 01:23:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:42:59.840898
- Title: Rescriber: Smaller-LLM-Powered User-Led Data Minimization for Navigating Privacy Trade-offs in LLM-Based Conversational Agent
- Title(参考訳): LLMベースの会話エージェントにおけるプライバシトレードオフをナビゲートするための小型LLMによるユーザ主導データ最小化
- Authors: Jijie Zhou, Eryue Xu, Yaoyao Wu, Tianshi Li,
- Abstract要約: Rescriberは、LLMベースの会話エージェントでユーザ主導のデータ最小化をサポートするブラウザエクステンションである。
我々の研究によると、Rescriberはユーザーが不必要な開示を減らし、プライバシー上の懸念に対処するのに役立ちました。
以上の結果から,LLMによる小型ユーザ向けオンデバイスプライバシコントロールの実現可能性が確認された。
- 参考スコア(独自算出の注目度): 2.2447085410328103
- License:
- Abstract: The proliferation of LLM-based conversational agents has resulted in excessive disclosure of identifiable or sensitive information. However, existing technologies fail to offer perceptible control or account for users' personal preferences about privacy-utility tradeoffs due to the lack of user involvement. To bridge this gap, we designed, built, and evaluated Rescriber, a browser extension that supports user-led data minimization in LLM-based conversational agents by helping users detect and sanitize personal information in their prompts. Our studies (N=12) showed that Rescriber helped users reduce unnecessary disclosure and addressed their privacy concerns. Users' subjective perceptions of the system powered by Llama3-8B were on par with that by GPT-4. The comprehensiveness and consistency of the detection and sanitization emerge as essential factors that affect users' trust and perceived protection. Our findings confirm the viability of smaller-LLM-powered, user-facing, on-device privacy controls, presenting a promising approach to address the privacy and trust challenges of AI.
- Abstract(参考訳): LLMに基づく会話エージェントの増殖は、識別または機密情報の過剰な開示をもたらす。
しかし、既存の技術では、ユーザの関与の欠如により、プライバシーとユーティリティのトレードオフに関するユーザの個人的な好みを認識可能なコントロールや説明できない。
このギャップを埋めるために、私たちはLLMベースの会話エージェントにおけるユーザ主導のデータ最小化をサポートするブラウザエクステンションであるRescriberを設計、構築、評価し、ユーザがプロンプトで個人情報を検知し、衛生化するのを支援した。
我々の研究(N=12)は、Rescriberが不必要な開示を減らし、プライバシー上の懸念に対処するのに役立つことを示した。
Llama3-8Bによるシステムに対するユーザの主観的認識は、GPT-4と同等であった。
検知と衛生の包括性と一貫性は、ユーザの信頼と認識する保護に影響を与える重要な要因として現れます。
以上の結果から,より小型でユーザ対応のオンデバイスプライバシコントロールが実現可能であることが確認され,AIのプライバシと信頼性の課題に対処する,有望なアプローチが提示された。
関連論文リスト
- Can Humans Oversee Agents to Prevent Privacy Leakage? A Study on Privacy Awareness, Preferences, and Trust in Language Model Agents [1.5020330976600738]
個人のタスクを代行する言語モデル(LM)エージェントは生産性を向上するが、意図しないプライバシー漏洩のリスクも受けやすい。
本研究は、LMエージェントのプライバシ含意を監督する人々の能力に関する最初の研究である。
論文 参考訳(メタデータ) (2024-11-02T19:15:42Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - PriviFy: Designing Tangible Interfaces for Configuring IoT Privacy Preferences [1.4999444543328289]
PriviFyは、スマートデバイスプライバシ設定の設定をシンプルにするための、新規でユーザフレンドリな有形インターフェースです。
当社の研究からの肯定的なフィードバックとユーザエクスペリエンスによって、製品開発者やスマートデバイスメーカーが、私たちが特定した有用なデザイン要素を取り入れられるようになると期待しています。
論文 参考訳(メタデータ) (2024-06-08T12:35:46Z) - Privacy-Preserving End-to-End Spoken Language Understanding [7.501598786895441]
人間のスピーチには、性別、アイデンティティ、センシティブなコンテンツなど、多くのユーザセンシティブな情報が含まれる。
新たなタイプのセキュリティおよびプライバシ侵害が出現した。ユーザは、信頼できない第三者による悪意ある攻撃に対して、個人情報を公開したくない。
本稿では,音声認識(ASR)とID認識(IR)の両方を防止するために,新しいマルチタスクプライバシ保護モデルを提案する。
論文 参考訳(メタデータ) (2024-03-22T03:41:57Z) - User Consented Federated Recommender System Against Personalized
Attribute Inference Attack [55.24441467292359]
本稿では,ユーザの異なるプライバシーニーズを柔軟に満たすために,ユーザ合意型フェデレーションレコメンデーションシステム(UC-FedRec)を提案する。
UC-FedRecは、ユーザーが様々な要求を満たすためにプライバシー設定を自己定義し、ユーザーの同意を得てレコメンデーションを行うことを可能にする。
論文 参考訳(メタデータ) (2023-12-23T09:44:57Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - "It's a Fair Game", or Is It? Examining How Users Navigate Disclosure Risks and Benefits When Using LLM-Based Conversational Agents [27.480959048351973]
大規模言語モデル(LLM)ベースの会話エージェント(CA)の普及は、多くのプライバシー上の懸念を引き起こす。
実世界のChatGPT会話における機密情報開示を分析し,19名のLCMユーザを対象に半構造化インタビューを行った。
LLMベースのCAを使用する場合,ユーザは常に,プライバシやユーティリティ,利便性のトレードオフに直面しています。
論文 参考訳(メタデータ) (2023-09-20T21:34:36Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Tapping into Privacy: A Study of User Preferences and Concerns on
Trigger-Action Platforms [0.0]
モノのインターネット(IoT)デバイスの人気は急速に高まり、インターネットに接続されたデバイスを継続的に監視する人が増えている。
この研究は、IoT(Internet of Things)のコンテキストにおいて、Trigger-Action Platform(TAP)に関連するエンドユーザのプライバシ上の懸念と期待について調査する。
TAPでは、特定のイベントや条件に基づいてアクションをトリガーするルールを作成することで、スマート環境をカスタマイズすることができる。
論文 参考訳(メタデータ) (2023-08-11T14:25:01Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。