論文の概要: Controlling What You Share: Assessing Language Model Adherence to Privacy Preferences
- arxiv url: http://arxiv.org/abs/2507.05391v1
- Date: Mon, 07 Jul 2025 18:22:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.296662
- Title: Controlling What You Share: Assessing Language Model Adherence to Privacy Preferences
- Title(参考訳): 共有するものを制御する: プライバシ優先に対する言語モデルの整合性を評価する
- Authors: Guillem Ramírez, Alexandra Birch, Ivan Titov,
- Abstract要約: プライバシプロファイルを使用してデータのコントロールを継続する方法について検討する。
ローカルモデルがこれらの命令を使ってクエリを書き換えるフレームワークを構築します。
本研究を支援するために,実ユーザクエリの多言語データセットを導入し,プライベートコンテンツをマークする。
- 参考スコア(独自算出の注目度): 80.63946798650653
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) are primarily accessed via commercial APIs, but this often requires users to expose their data to service providers. In this paper, we explore how users can stay in control of their data by using privacy profiles: simple natural language instructions that say what should and should not be revealed. We build a framework where a local model uses these instructions to rewrite queries, only hiding details deemed sensitive by the user, before sending them to an external model, thus balancing privacy with performance. To support this research, we introduce PEEP, a multilingual dataset of real user queries annotated to mark private content and paired with synthetic privacy profiles. Our experiments with lightweight LLMs show they can follow these instructions to some extent, but also face consistent challenges, highlighting the need for models that better understand and comply with user-defined privacy preferences.
- Abstract(参考訳): 大規模言語モデル(LLM)は、主に商用APIを通じてアクセスされるが、多くの場合、ユーザはサービスプロバイダにデータを公開する必要がある。
本稿では,プライバシプロファイルを用いてユーザのデータ管理を継続する方法について考察する。
我々は、ローカルモデルがこれらの命令を使ってクエリを書き換えるフレームワークを構築し、ユーザによって機密と見なされる詳細だけを隠してから外部モデルに送信し、プライバシとパフォーマンスのバランスをとる。
本研究を支援するために,PEEPを紹介した。PEEPは,プライベートコンテンツと合成プライバシプロファイルとの組み合わせをマークするために注釈付けされた実ユーザクエリの多言語データセットである。
軽量 LLM を用いた我々の実験は,これらの命令をある程度追従できるだけでなく,ユーザ定義のプライバシの優先事項をよりよく理解し遵守するモデルの必要性を強調して,一貫した課題に直面していることを示している。
関連論文リスト
- Automated Privacy Information Annotation in Large Language Model Interactions [40.87806981624453]
実際の識別子の下で大きな言語モデル(LLM)と対話するユーザは、プライベート情報の開示を無意識にリスクを負うことが多い。
既存のプライバシ検出方法は、異なる目的とアプリケーションシナリオのために設計されました。
249Kのユーザクエリと154Kの注釈付きプライバシフレーズを備えた大規模多言語データセットを構築した。
論文 参考訳(メタデータ) (2025-05-27T09:00:12Z) - Entailment-Driven Privacy Policy Classification with LLMs [3.564208334473993]
本稿では,プライバシーポリシーの段落をユーザが容易に理解できる意味のあるラベルに分類する枠組みを提案する。
私たちのフレームワークは、F1スコアを平均11.2%改善します。
論文 参考訳(メタデータ) (2024-09-25T05:07:05Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt Engineer [57.04801796205638]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Selective Differential Privacy for Language Modeling [36.64464956102432]
これまでの研究は、RNNベースの言語モデルを異なるプライバシ保証でトレーニングすることで、この問題に対処しようとしてきた。
我々は、データの機密部分に対して厳密なプライバシー保証を提供するために、新しいプライバシー概念、選択的差分プライバシーを提案する。
言語モデリングとダイアログシステム構築の実験は、提案したプライバシー保護機構がより良いユーティリティを実現することを示す。
論文 参考訳(メタデータ) (2021-08-30T01:11:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。