論文の概要: Autonomy Matters: A Study on Personalization-Privacy Dilemma in LLM Agents
- arxiv url: http://arxiv.org/abs/2510.04465v1
- Date: Mon, 06 Oct 2025 03:38:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.670518
- Title: Autonomy Matters: A Study on Personalization-Privacy Dilemma in LLM Agents
- Title(参考訳): LLMエージェントのパーソナライズ・アクティビティジレンマに関する研究
- Authors: Zhiping Zhang, Yi Evie Zhang, Freda Shi, Tianshi Li,
- Abstract要約: エージェントの自律性とパーソナライゼーションがユーザのプライバシの懸念や信頼,利用意欲にどのように影響するかを検討する。
ユーザのプライバシの好みを考慮せずにパーソナライズすることで、プライバシの懸念が増し、信頼性や使用意欲が低下することがわかった。
この結果から, エージェントの行動とユーザコントロールの自律性のバランスは, アウトプット生成における完璧なモデルアライメントを目指すのではなく, パーソナライズとプライバシの両ジレンマを緩和する上で有望な道筋であることが示唆された。
- 参考スコア(独自算出の注目度): 16.263298954758323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Model (LLM) agents require personal information for personalization in order to better act on users' behalf in daily tasks, but this raises privacy concerns and a personalization-privacy dilemma. Agent's autonomy introduces both risks and opportunities, yet its effects remain unclear. To better understand this, we conducted a 3$\times$3 between-subjects experiment ($N=450$) to study how agent's autonomy level and personalization influence users' privacy concerns, trust and willingness to use, as well as the underlying psychological processes. We find that personalization without considering users' privacy preferences increases privacy concerns and decreases trust and willingness to use. Autonomy moderates these effects: Intermediate autonomy flattens the impact of personalization compared to No- and Full autonomy conditions. Our results suggest that rather than aiming for perfect model alignment in output generation, balancing autonomy of agent's action and user control offers a promising path to mitigate the personalization-privacy dilemma.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントは、日々のタスクにおいてユーザの代わりに行動するために、パーソナライズのための個人情報を必要とするが、プライバシー上の懸念とパーソナライズ-プライバシーのジレンマを引き起こす。
エージェントの自律性はリスクと機会の両方をもたらすが、その影響は未だ不明である。
これを理解するために,エージェントの自律性とパーソナライゼーションがユーザのプライバシの懸念,信頼と使用意欲,および基礎となる心理的プロセスにどのように影響するかを研究するために,3$\times$3-jects(N=450$)の実験を行った。
ユーザのプライバシの好みを考慮せずにパーソナライズすることで,プライバシの懸念が増し,信頼性や使用意欲が低下することがわかった。
中間的自律性は、No-とFullの自律性条件と比較してパーソナライゼーションの影響をフラットにする。
この結果から, エージェントの行動とユーザコントロールの自律性のバランスは, アウトプット生成における完璧なモデルアライメントを目指すのではなく, パーソナライズとプライバシの両ジレンマを緩和する上で有望な道筋であることが示唆された。
関連論文リスト
- PrivAct: Internalizing Contextual Privacy Preservation via Multi-Agent Preference Training [14.144464261335031]
PrivActは、コンテキスト対応のプライバシーを意識したマルチエージェント学習フレームワークである。
プライバシに準拠したエージェントアクションのために、コンテキストプライバシ保護を直接モデルの生成動作に内部化する。
実験では、コンテキストのプライバシー保護が一貫した改善を示し、リーク率を最大12.32%削減した。
論文 参考訳(メタデータ) (2026-02-14T18:07:51Z) - VoxPrivacy: A Benchmark for Evaluating Interactional Privacy of Speech Language Models [25.266028200777317]
音声言語モデル(SLM)は、ユーザが適切に情報の流れを管理するために区別されることが期待される。
現在のSLMベンチマークでは、対話能力をテストするが、話者識別は見落としている。
我々は、SLMにおけるインタラクションプライバシを評価するために設計された最初のベンチマークであるVoxPrivacyを紹介する。
論文 参考訳(メタデータ) (2026-01-27T06:22:14Z) - Your Privacy Depends on Others: Collusion Vulnerabilities in Individual Differential Privacy [50.66105844449181]
個々の差別的プライバシ(iDP)は、ユーザが自身のプライバシをコントロールすることを約束するが、この約束は実際には破られる可能性がある。
我々は、サンプリングベースのiDPメカニズムにおいて、これまで見過ごされていた脆弱性を明らかにした。
我々は、$(varepsilon_i,_i,overline)$-iDPというプライバシー契約を提案します。
論文 参考訳(メタデータ) (2026-01-19T10:26:12Z) - Personalized Language Models via Privacy-Preserving Evolutionary Model Merging [53.97323896430374]
言語モデルにおけるパーソナライゼーションは、個々のユーザやユーザグループに対する振る舞いをモデル化することを目的としている。
進化的アルゴリズム(PriME)によるプライバシ保護モデルマージを提案する。
PriMEは、プライバシーリスクを低減しつつ、ユーティリティを直接最適化するために、勾配のない方法を採用している。
LaMPベンチマークの実験によると、Primeは一貫してベースラインを上回り、タスクパフォーマンスを最大45%改善している。
論文 参考訳(メタデータ) (2025-03-23T09:46:07Z) - Privacy Leakage Overshadowed by Views of AI: A Study on Human Oversight of Privacy in Language Model Agent [3.89966779727297]
個人のタスクを代行する言語モデル(LM)エージェントは生産性を向上するが、意図しないプライバシー漏洩のリスクも受けやすい。
本研究は、LMエージェントのプライバシ含意を監督する人々の能力に関する最初の研究である。
論文 参考訳(メタデータ) (2024-11-02T19:15:42Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - A Three-Way Knot: Privacy, Fairness, and Predictive Performance Dynamics [2.9005223064604078]
最も重要な問題の2つは、公正性とデータのプライバシーである。
プライバシ、公平性、予測パフォーマンスのバランスは複雑です。
この3方向の張力と各ベクトルの最適化が他に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-27T15:46:22Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。