論文の概要: Personalizing Agent Privacy Decisions via Logical Entailment
- arxiv url: http://arxiv.org/abs/2512.05065v2
- Date: Mon, 08 Dec 2025 17:06:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 15:54:52.374694
- Title: Personalizing Agent Privacy Decisions via Logical Entailment
- Title(参考訳): 論理的包摂によるエージェントプライバシ決定のパーソナライズ
- Authors: James Flemings, Ren Yi, Octavian Suciu, Kassem Fawaz, Murali Annavaram, Marco Gruteser,
- Abstract要約: 我々は,言語モデルのプライバシ決定をパーソナライズすることに集中し,ユーザのプライバシ決定を直接的確に判断する。
本研究は,プライバシ決定を効果的にパーソナライズするには,一般的なプライバシ規範が不十分であることを示唆している。
本稿では,構造化データ共有推論に言語モデルとルールベースの論理を併用したフレームワークであるARIELを提案する。
- 参考スコア(独自算出の注目度): 21.171501108831034
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personal language model-based agents are becoming more widespread for completing tasks on behalf of users; however, this raises serious privacy questions regarding whether these models will appropriately disclose user data. While prior work has evaluated language models on data-sharing scenarios based on general privacy norms, we focus on personalizing language models' privacy decisions, grounding their judgments directly in prior user privacy decisions. Our findings suggest that general privacy norms are insufficient for effective personalization of privacy decisions. Furthermore, we find that eliciting privacy judgments from the model through In-context Learning (ICL) is unreliable to due misalignment with the user's prior privacy judgments and opaque reasoning traces, which make it difficult for the user to interpret the reasoning behind the model's decisions. To address these limitations, we propose ARIEL (Agentic Reasoning with Individualized Entailment Logic), a framework that jointly leverages a language model and rule-based logic for structured data-sharing reasoning. ARIEL is based on formulating personalization of data sharing as an entailment, whether a prior user judgment on a data-sharing request implies the same judgment for an incoming request. Our experimental evaluations on advanced models and publicly-available datasets demonstrate that ARIEL can reduce the F1 score error by $\textbf{39.1%}$ over language model-based reasoning (ICL), demonstrating that ARIEL is effective at correctly judging requests where the user would approve data sharing. Overall, our findings suggest that combining LLMs with strict logical entailment is a highly effective strategy for enabling personalized privacy judgments for agents.
- Abstract(参考訳): 個人言語モデルに基づくエージェントは、ユーザに代わってタスクを完了させるため、より広まりつつあるが、これらのモデルがユーザデータを適切に開示するかどうかに関する深刻なプライバシー問題を引き起こす。
これまでの作業では、一般的なプライバシ規範に基づくデータ共有シナリオに関する言語モデルの評価が行われていたが、言語モデルのプライバシ決定をパーソナライズすることに注力し、ユーザのプライバシ決定を直接的に下す。
本研究は,プライバシ決定を効果的にパーソナライズするには,一般的なプライバシ規範が不十分であることを示唆している。
さらに,本モデルからICL(In-context Learning)によるプライバシ判断を抽出することは,ユーザの事前のプライバシ判断と不透明な推論トレースとの相違により信頼性が低下していることが判明した。
これらの制約に対処するため、構造化データ共有推論に言語モデルとルールベースの論理を併用したフレームワークであるARIEL(Agentic Reasoning with individualized Entailment Logic)を提案する。
ARIELは、データ共有要求に対する事前のユーザ判断が、受信要求に対して同じ判断を下すか否かを、データ共有のパーソナライズをエンテーメントとして定式化する。
先進モデルと公開データセットの実験的評価により、ARIELは言語モデルに基づく推論(ICL)よりもF1スコアエラーを$\textbf{39.1%}$に削減できることが示された。
以上の結果から,LSMと厳密な論理的含意を組み合わせることは,エージェントのパーソナライズされたプライバシ判断を可能にするための極めて効果的な戦略であることが示唆された。
関連論文リスト
- Personalized Reasoning: Just-In-Time Personalization and Why LLMs Fail At It [81.50711040539566]
現在の大規模言語モデル(LLM)開発は、タスク解決と優先順位調整を別の課題として扱う。
静的ベンチマークを対話型パーソナライズタスクに変換する評価手法であるPreFDISCOを紹介する。
我々のフレームワークは、ユーザコンテキストに応じて、同じ質問が異なる推論チェーンを必要とするシナリオを作成します。
論文 参考訳(メタデータ) (2025-09-30T18:55:28Z) - Controlling What You Share: Assessing Language Model Adherence to Privacy Preferences [73.5779077857545]
ローカルモデルがこれらの命令を使ってクエリを書き換えるフレームワークを構築します。
軽量なローカルLCMを用いた実験では、微調整後、はるかに大きなゼロショットモデルの性能を著しく上回った。
同時に、このシステムは、ユーザー定義プライバシの好みをよりよく理解したモデルの必要性を強調し、ユーザー指示に完全に準拠するという課題に直面している。
論文 参考訳(メタデータ) (2025-07-07T18:22:55Z) - User Behavior Analysis in Privacy Protection with Large Language Models: A Study on Privacy Preferences with Limited Data [5.152440245370642]
本研究では,大言語モデル(LLM)が,限られたデータを持つシナリオにおいて,プライバシ保護に関連するユーザの行動を分析する方法について検討する。
この研究は匿名化されたユーザプライバシ設定データ、サーベイレスポンス、シミュレートされたデータを利用している。
実験結果から, LLMは限られたデータであっても, プライバシ・プライオリティ・モデリングの精度を著しく向上することが示された。
論文 参考訳(メタデータ) (2025-05-08T04:42:17Z) - Personalized Language Models via Privacy-Preserving Evolutionary Model Merging [53.97323896430374]
言語モデルにおけるパーソナライゼーションは、個々のユーザやユーザグループに対する振る舞いをモデル化することを目的としている。
進化的アルゴリズム(PriME)によるプライバシ保護モデルマージを提案する。
PriMEは、プライバシーリスクを低減しつつ、ユーティリティを直接最適化するために、勾配のない方法を採用している。
LaMPベンチマークの実験によると、Primeは一貫してベースラインを上回り、タスクパフォーマンスを最大45%改善している。
論文 参考訳(メタデータ) (2025-03-23T09:46:07Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - I Prefer not to Say: Protecting User Consent in Models with Optional
Personal Data [20.238432971718524]
データの共有をしない決定は,ユーザのプライバシを尊重するために保護されるべき情報として,それ自体が考えられる。
我々は,アクティブなユーザ同意を得た情報のみを使用するモデルに対する保護要件を定式化する。
論文 参考訳(メタデータ) (2022-10-25T12:16:03Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。