論文の概要: Human-Centered Privacy Research in the Age of Large Language Models
- arxiv url: http://arxiv.org/abs/2402.01994v1
- Date: Sat, 3 Feb 2024 02:32:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 23:03:05.180846
- Title: Human-Centered Privacy Research in the Age of Large Language Models
- Title(参考訳): 大規模言語モデルにおける人間中心プライバシ研究
- Authors: Tianshi Li, Sauvik Das, Hao-Ping Lee, Dakuo Wang, Bingsheng Yao,
Zhiping Zhang
- Abstract要約: このSIGは、使用可能なセキュリティとプライバシ、人間とAIのコラボレーション、NLP、その他の関連するドメインの背景を持つ研究者を集めて、この問題に対する見解と経験を共有することを目的としている。
- 参考スコア(独自算出の注目度): 31.379232599019915
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The emergence of large language models (LLMs), and their increased use in
user-facing systems, has led to substantial privacy concerns. To date, research
on these privacy concerns has been model-centered: exploring how LLMs lead to
privacy risks like memorization, or can be used to infer personal
characteristics about people from their content. We argue that there is a need
for more research focusing on the human aspect of these privacy issues: e.g.,
research on how design paradigms for LLMs affect users' disclosure behaviors,
users' mental models and preferences for privacy controls, and the design of
tools, systems, and artifacts that empower end-users to reclaim ownership over
their personal data. To build usable, efficient, and privacy-friendly systems
powered by these models with imperfect privacy properties, our goal is to
initiate discussions to outline an agenda for conducting human-centered
research on privacy issues in LLM-powered systems. This Special Interest Group
(SIG) aims to bring together researchers with backgrounds in usable security
and privacy, human-AI collaboration, NLP, or any other related domains to share
their perspectives and experiences on this problem, to help our community
establish a collective understanding of the challenges, research opportunities,
research methods, and strategies to collaborate with researchers outside of
HCI.
- Abstract(参考訳): 大規模言語モデル(llm)の出現と、ユーザ向けシステムでの使用の増加は、プライバシーに関する重大な懸念を引き起こした。
これまでのところ、これらのプライバシーに関する研究はモデル中心で行われており、LLMが暗記のようなプライバシーリスクをいかに引き起こすか、あるいはコンテンツから人に関する個人的特徴を推測するために使用できるか、などである。
例えば、LLMの設計パラダイムがユーザの開示行動にどのように影響するか、ユーザのメンタルモデルとプライバシコントロールの嗜好、エンドユーザが個人データに対して所有権を回復するためのツール、システム、アーティファクトの設計などである。
利用性,効率性,プライバシに配慮したシステムを構築するために,llmを活用したシステムにおいて,プライバシ問題に関する人間中心の研究を行うための議題を概説する。
この特別関心グループ(SIG)は、セキュリティとプライバシ、人間とAIのコラボレーション、NLP、その他の関連分野の研究者を結集して、この問題に関する見解や経験を共有し、コミュニティがHCI以外の研究者と協力するための課題、研究機会、研究方法、戦略の集合的理解を確立するのを支援することを目的としています。
関連論文リスト
- The Good and The Bad: Exploring Privacy Issues in Retrieval-Augmented
Generation (RAG) [56.67603627046346]
Retrieval-augmented Generation (RAG)は、プロプライエタリおよびプライベートデータによる言語モデルを容易にする強力な技術である。
本研究では,プライベート検索データベースの漏洩に対するRAGシステムの脆弱性を実証する,新たな攻撃手法による実証的研究を行う。
論文 参考訳(メタデータ) (2024-02-23T18:35:15Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models
via Contextual Integrity Theory [86.8514623654506]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - "It's a Fair Game'', or Is It? Examining How Users Navigate Disclosure
Risks and Benefits When Using LLM-Based Conversational Agents [26.6967540772678]
実世界のChatGPT会話における機密情報開示を分析し,19名のLCMユーザを対象に半構造化インタビューを行った。
LLMベースのCAを使用する場合,ユーザは常に,プライバシやユーティリティ,利便性のトレードオフに直面しています。
本稿では,LCMベースのCAユーザのプライバシを保護するために,実用的な設計ガイドラインとパラダイムシフトの必要性について論じる。
論文 参考訳(メタデータ) (2023-09-20T21:34:36Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - The Evolving Path of "the Right to Be Left Alone" - When Privacy Meets
Technology [0.0]
本稿では,プライバシエコシステムの新たなビジョンとして,プライバシの次元,関連するユーザの期待,プライバシ違反,変化要因を導入することを提案する。
プライバシー問題に取り組むための有望なアプローチは, (i) 効果的なプライバシメトリクスの識別, (ii) プライバシに準拠したアプリケーションを設計するためのフォーマルなツールの採用という,2つの方向に移行している,と私たちは信じています。
論文 参考訳(メタデータ) (2021-11-24T11:27:55Z) - Privacy in Open Search: A Review of Challenges and Solutions [0.6445605125467572]
情報検索(IR)は、攻撃や意図しない文書や検索履歴の開示など、プライバシー上の脅威に晒されている。
この研究は、ユーザの生成したテキストデータを含むタスクに焦点を当て、最近のIR文学におけるプライバシーに関するオープンな課題を強調し、議論することを目的としている。
論文 参考訳(メタデータ) (2021-10-20T18:38:48Z) - User Perception of Privacy with Ubiquitous Devices [5.33024001730262]
本研究は,ユビキタステクノロジーの時代におけるプライバシの認識に関する様々な懸念を探求し,発見することを目的としている。
公共やプライベートスペースにおけるプライバシーに対する態度、プライバシーの意識、同意を求めること、様々な技術に関連するジレンマ/コンフュージョン、公共やプライベートスペースにおけるプライバシーの侵害から身を守る方法に関する個人行動に対する態度と信念の影響など、主要なテーマである。
論文 参考訳(メタデータ) (2021-07-23T05:01:44Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。