論文の概要: Autonomy Matters: A Study on Personalization-Privacy Dilemma in LLM Agents
- arxiv url: http://arxiv.org/abs/2510.04465v1
- Date: Mon, 06 Oct 2025 03:38:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.670518
- Title: Autonomy Matters: A Study on Personalization-Privacy Dilemma in LLM Agents
- Title(参考訳): LLMエージェントのパーソナライズ・アクティビティジレンマに関する研究
- Authors: Zhiping Zhang, Yi Evie Zhang, Freda Shi, Tianshi Li,
- Abstract要約: エージェントの自律性とパーソナライゼーションがユーザのプライバシの懸念や信頼,利用意欲にどのように影響するかを検討する。
ユーザのプライバシの好みを考慮せずにパーソナライズすることで、プライバシの懸念が増し、信頼性や使用意欲が低下することがわかった。
この結果から, エージェントの行動とユーザコントロールの自律性のバランスは, アウトプット生成における完璧なモデルアライメントを目指すのではなく, パーソナライズとプライバシの両ジレンマを緩和する上で有望な道筋であることが示唆された。
- 参考スコア(独自算出の注目度): 16.263298954758323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Model (LLM) agents require personal information for personalization in order to better act on users' behalf in daily tasks, but this raises privacy concerns and a personalization-privacy dilemma. Agent's autonomy introduces both risks and opportunities, yet its effects remain unclear. To better understand this, we conducted a 3$\times$3 between-subjects experiment ($N=450$) to study how agent's autonomy level and personalization influence users' privacy concerns, trust and willingness to use, as well as the underlying psychological processes. We find that personalization without considering users' privacy preferences increases privacy concerns and decreases trust and willingness to use. Autonomy moderates these effects: Intermediate autonomy flattens the impact of personalization compared to No- and Full autonomy conditions. Our results suggest that rather than aiming for perfect model alignment in output generation, balancing autonomy of agent's action and user control offers a promising path to mitigate the personalization-privacy dilemma.
- Abstract(参考訳): 大規模言語モデル(LLM)エージェントは、日々のタスクにおいてユーザの代わりに行動するために、パーソナライズのための個人情報を必要とするが、プライバシー上の懸念とパーソナライズ-プライバシーのジレンマを引き起こす。
エージェントの自律性はリスクと機会の両方をもたらすが、その影響は未だ不明である。
これを理解するために,エージェントの自律性とパーソナライゼーションがユーザのプライバシの懸念,信頼と使用意欲,および基礎となる心理的プロセスにどのように影響するかを研究するために,3$\times$3-jects(N=450$)の実験を行った。
ユーザのプライバシの好みを考慮せずにパーソナライズすることで,プライバシの懸念が増し,信頼性や使用意欲が低下することがわかった。
中間的自律性は、No-とFullの自律性条件と比較してパーソナライゼーションの影響をフラットにする。
この結果から, エージェントの行動とユーザコントロールの自律性のバランスは, アウトプット生成における完璧なモデルアライメントを目指すのではなく, パーソナライズとプライバシの両ジレンマを緩和する上で有望な道筋であることが示唆された。
関連論文リスト
- Privacy Leakage Overshadowed by Views of AI: A Study on Human Oversight of Privacy in Language Model Agent [3.89966779727297]
個人のタスクを代行する言語モデル(LM)エージェントは生産性を向上するが、意図しないプライバシー漏洩のリスクも受けやすい。
本研究は、LMエージェントのプライバシ含意を監督する人々の能力に関する最初の研究である。
論文 参考訳(メタデータ) (2024-11-02T19:15:42Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。