論文の概要: "It's a Fair Game'', or Is It? Examining How Users Navigate Disclosure
Risks and Benefits When Using LLM-Based Conversational Agents
- arxiv url: http://arxiv.org/abs/2309.11653v1
- Date: Wed, 20 Sep 2023 21:34:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 17:45:00.206733
- Title: "It's a Fair Game'', or Is It? Examining How Users Navigate Disclosure
Risks and Benefits When Using LLM-Based Conversational Agents
- Title(参考訳): 「フェアゲーム」か、それとも「フェアゲーム」か。
LLMを用いた会話エージェントを用いた情報開示リスクとメリットのナビゲート方法の検討
- Authors: Zhiping Zhang, Michelle Jia, Hao-Ping (Hank) Lee, Bingsheng Yao,
Sauvik Das, Ada Lerner, Dakuo Wang, Tianshi Li
- Abstract要約: 実世界のChatGPT会話における機密情報開示を分析し,19名のLCMユーザを対象に半構造化インタビューを行った。
LLMベースのCAを使用する場合,ユーザは常に,プライバシやユーティリティ,利便性のトレードオフに直面しています。
本稿では,LCMベースのCAユーザのプライバシを保護するために,実用的な設計ガイドラインとパラダイムシフトの必要性について論じる。
- 参考スコア(独自算出の注目度): 26.6967540772678
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread use of Large Language Model (LLM)-based conversational agents
(CAs), especially in high-stakes domains, raises many privacy concerns.
Building ethical LLM-based CAs that respect user privacy requires an in-depth
understanding of the privacy risks that concern users the most. However,
existing research, primarily model-centered, does not provide insight into
users' perspectives. To bridge this gap, we analyzed sensitive disclosures in
real-world ChatGPT conversations and conducted semi-structured interviews with
19 LLM-based CA users. We found that users are constantly faced with trade-offs
between privacy, utility, and convenience when using LLM-based CAs. However,
users' erroneous mental models and the dark patterns in system design limited
their awareness and comprehension of the privacy risks. Additionally, the
human-like interactions encouraged more sensitive disclosures, which
complicated users' ability to navigate the trade-offs. We discuss practical
design guidelines and the needs for paradigmatic shifts to protect the privacy
of LLM-based CA users.
- Abstract(参考訳): 大規模言語モデル(LLM)ベースの会話エージェント(CA)の普及は、特に高い領域において、多くのプライバシー上の懸念を提起している。
ユーザプライバシを尊重する倫理的LCMベースのCAを構築するには、ユーザを最も心配するプライバシーリスクを深く理解する必要があります。
しかし、既存の研究は主にモデル中心であり、ユーザーの視点についての洞察を与えていない。
このギャップを埋めるために,現実のChatGPT会話における機密情報開示を分析し,19のLCMベースのCAユーザを対象に半構造化インタビューを行った。
LLMベースのCAを使用する場合,ユーザは常に,プライバシやユーティリティ,利便性のトレードオフに直面しています。
しかし、ユーザの誤ったメンタルモデルとシステム設計の暗黒パターンは、プライバシリスクに対する意識と理解を制限した。
さらに、人間のようなインタラクションによってより機密性の高い開示が促進され、ユーザーはトレードオフをナビゲートする能力が複雑になった。
llmベースのcaユーザのプライバシを保護するための,実用的な設計ガイドラインとパラダイムシフトの必要性について論じる。
関連論文リスト
- Preempting Text Sanitization Utility in Resource-Constrained Privacy-Preserving LLM Interactions [4.372695214012181]
本稿では,大規模言語モデルに送信される前に,衛生効果がプロンプトに与える影響を推定するアーキテクチャを提案する。
このアーキテクチャを評価した結果,差分プライバシーに基づくテキストのサニタイズに重大な問題があることが明らかとなった。
論文 参考訳(メタデータ) (2024-11-18T12:31:22Z) - Rescriber: Smaller-LLM-Powered User-Led Data Minimization for Navigating Privacy Trade-offs in LLM-Based Conversational Agent [2.2447085410328103]
Rescriberは、LLMベースの会話エージェントでユーザ主導のデータ最小化をサポートするブラウザエクステンションである。
我々の研究によると、Rescriberはユーザーが不必要な開示を減らし、プライバシー上の懸念に対処するのに役立ちました。
以上の結果から,LLMによる小型ユーザ向けオンデバイスプライバシコントロールの実現可能性が確認された。
論文 参考訳(メタデータ) (2024-10-10T01:23:16Z) - Secret Use of Large Language Model (LLM) [25.452542727215178]
大規模言語モデル(LLM)は、AI使用の透明性に対する責任を分散化している。
本研究は,LLMの秘密利用の背景にある文脈と原因について検討した。
このような秘密行動は、特定のタスクによって引き起こされることが多く、ユーザ間での人口動態や人格差を超越する。
論文 参考訳(メタデータ) (2024-09-28T20:31:53Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - LLM-PBE: Assessing Data Privacy in Large Language Models [111.58198436835036]
大規模言語モデル(LLM)は多くのドメインに不可欠なものとなり、データ管理、マイニング、分析におけるアプリケーションを大幅に進歩させた。
この問題の批判的な性質にもかかわらず、LLMにおけるデータプライバシのリスクを総合的に評価する文献は存在しない。
本稿では,LLMにおけるデータプライバシリスクの体系的評価を目的としたツールキットであるLLM-PBEを紹介する。
論文 参考訳(メタデータ) (2024-08-23T01:37:29Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - No Free Lunch Theorem for Privacy-Preserving LLM Inference [30.554456047738295]
本研究では,プライバシ保護型大規模言語モデル(LLM)を推定するためのフレームワークを開発する。
プライバシー保護とユーティリティの相互作用を調べるための、しっかりとした理論的基盤を築いている。
論文 参考訳(メタデータ) (2024-05-31T08:22:53Z) - CLAMBER: A Benchmark of Identifying and Clarifying Ambiguous Information Needs in Large Language Models [60.59638232596912]
大規模言語モデル(LLM)を評価するベンチマークであるCLAMBERを紹介する。
分類を基盤として12Kの高品質なデータを構築し, 市販のLCMの強度, 弱点, 潜在的なリスクを評価する。
本研究は, あいまいなユーザクエリの特定と明確化において, 現在のLCMの実用性に限界があることを示唆する。
論文 参考訳(メタデータ) (2024-05-20T14:34:01Z) - Human-Centered Privacy Research in the Age of Large Language Models [31.379232599019915]
このSIGは、使用可能なセキュリティとプライバシ、人間とAIのコラボレーション、NLP、その他の関連するドメインの背景を持つ研究者を集めて、この問題に対する見解と経験を共有することを目的としている。
論文 参考訳(メタデータ) (2024-02-03T02:32:45Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Privacy in Large Language Models: Attacks, Defenses and Future Directions [84.73301039987128]
大規模言語モデル(LLM)を対象とした現在のプライバシ攻撃を分析し、敵の想定能力に応じて分類する。
本稿では、これらのプライバシー攻撃に対抗するために開発された防衛戦略について概説する。
論文 参考訳(メタデータ) (2023-10-16T13:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。