論文の概要: Puda: Private User Dataset Agent for User-Sovereign and Privacy-Preserving Personalized AI
- arxiv url: http://arxiv.org/abs/2602.08268v1
- Date: Mon, 09 Feb 2026 05:00:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.06872
- Title: Puda: Private User Dataset Agent for User-Sovereign and Privacy-Preserving Personalized AI
- Title(参考訳): Puda: ユーザ主権とプライバシ保護のためのプライベートユーザデータセットエージェント
- Authors: Akinori Maeda, Yuto Sekiya, Sota Sugimura, Tomoya Asai, Yu Tsuda, Kohei Ikeda, Hiroshi Fujii, Kohei Watanabe,
- Abstract要約: Pudaは、サービス間でデータを集約し、クライアント側管理を可能にする、ユーザソブリンアーキテクチャである。
Pudaでは,データの共有を3つのプライバシレベル – (i)詳細なブラウジング履歴, (ii)抽出キーワード, (iii)定義済みカテゴリサブセット –でコントロールすることができる。
以上の結果から,プライバシ・パーソナライゼーションのトレードオフを軽減するための実践的な選択肢として,効果的に多粒度管理を可能にすることが示唆された。
- 参考スコア(独自算出の注目度): 0.35132824436572685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personal data centralization among dominant platform providers including search engines, social networking services, and e-commerce has created siloed ecosystems that restrict user sovereignty, thereby impeding data use across services. Meanwhile, the rapid proliferation of Large Language Model (LLM)-based agents has intensified demand for highly personalized services that require the dynamic provision of diverse personal data. This presents a significant challenge: balancing the utilization of such data with privacy protection. To address this challenge, we propose Puda (Private User Dataset Agent), a user-sovereign architecture that aggregates data across services and enables client-side management. Puda allows users to control data sharing at three privacy levels: (i) Detailed Browsing History, (ii) Extracted Keywords, and (iii) Predefined Category Subsets. We implemented Puda as a browser-based system that serves as a common platform across diverse services and evaluated it through a personalized travel planning task. Our results show that providing Predefined Category Subsets achieves 97.2% of the personalization performance (evaluated via an LLM-as-a-Judge framework across three criteria) obtained when sharing Detailed Browsing History. These findings demonstrate that Puda enables effective multi-granularity management, offering practical choices to mitigate the privacy-personalization trade-off. Overall, Puda provides an AI-native foundation for user sovereignty, empowering users to safely leverage the full potential of personalized AI.
- Abstract(参考訳): 検索エンジン、ソーシャルネットワークサービス、eコマースなど、主要なプラットフォームプロバイダ間の個人データの集中化は、ユーザの主権を制限するサイロ化されたエコシステムを生み出し、サービス間でのデータ使用を妨げる。
一方、LLM(Large Language Model)ベースのエージェントの急速な普及により、多様な個人データの動的プロビジョニングを必要とする高度にパーソナライズされたサービスへの需要が高まっている。
このようなデータ利用とプライバシ保護のバランスをとることが大きな課題だ。
この課題に対処するため,Puda (Private User Dataset Agent) を提案する。
Pudaを使うとユーザーは3つのプライバシーレベルでデータ共有をコントロールできる。
(browsing (複数形browsings)
(二)抽出キーワード、及び
(iii)予め定義されたカテゴリーのサブセット。
我々はPudaをブラウザベースのシステムとして実装し、多様なサービスにまたがる共通プラットフォームとして機能し、パーソナライズされた旅行計画タスクを通じて評価した。
以上の結果から, 詳細な閲覧履歴を共有する際に得られたパーソナライズ性能の97.2%(LCM-as-a-Judgeフレームワークを3つの基準で評価)が達成された。
これらの結果から,プライバシ・パーソナライゼーションのトレードオフを軽減するための実践的な選択肢として,効果的に多粒度管理を可能にすることが示唆された。
全体としてPudaは、ユーザ主権のためのAIネイティブな基盤を提供し、パーソナライズされたAIの潜在能力を安全に活用することを可能にする。
関連論文リスト
- Towards Usable Privacy Management for IoT TAPs: Deriving Privacy Clusters and Preference Profiles [1.2744523252873352]
IoT Trigger-Action Platforms(TAP)は通常、粗い粒度のパーミッションコントロールを提供する。
本稿では,異なるタイプのユーザに対して,プライバシクラスタとプロファイルを導出することで,TAPのユーザプライバシ管理に寄与する。
論文 参考訳(メタデータ) (2025-11-14T12:08:58Z) - A User-Centric, Privacy-Preserving, and Verifiable Ecosystem for Personal Data Management and Utilization [2.9204726853775664]
本稿では,異種個人情報を扱う分散型プライバシ保護アーキテクチャを提案する。
従来のモデルとは異なり、当社のシステムはユーザのデータ所有とコントロールを完全化し、プライバシを損なうことなく情報を選択的に共有できるようにします。
論文 参考訳(メタデータ) (2025-06-27T20:05:46Z) - Towards Personal Data Sharing Autonomy:A Task-driven Data Capsule Sharing System [5.076862984714449]
本稿では、個人データ共有自律性を実現するためのデータカプセルパラダイムに基づくタスク駆動型個人データ共有システムを提案する。
具体的には,データカプセルを独立かつセキュアな個人データストレージと共有のための最小単位とする,タンパー抵抗型データカプセルカプセルカプセル化法を提案する。
論文 参考訳(メタデータ) (2024-09-27T05:13:33Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Cross-Network Social User Embedding with Hybrid Differential Privacy
Guarantees [81.6471440778355]
プライバシー保護方式でユーザを包括的に表現するために,ネットワーク横断型ソーシャルユーザ埋め込みフレームワークDP-CroSUEを提案する。
特に、各異種ソーシャルネットワークに対して、異種データ型に対するプライバシー期待の変化を捉えるために、まずハイブリッドな差分プライバシーの概念を導入する。
ユーザ埋め込みをさらに強化するため、新しいネットワーク間GCN埋め込みモデルは、それらの整列したユーザを介して、ネットワーク間で知識を伝達するように設計されている。
論文 参考訳(メタデータ) (2022-09-04T06:22:37Z) - Efficient User-Centric Privacy-Friendly and Flexible Wearable Data Aggregation and Sharing [9.532148238768213]
ウェアラブルデバイスは個人や一般大衆にサービスを提供することができる。
クラウドプロバイダが収集するウェアラブルデータは、プライバシのリスクを引き起こす可能性がある。
我々は,SAMAという新しい,効率的で,ユーザ中心で,プライバシーに配慮した,フレキシブルなデータアグリゲーションと共有方式を提案する。
論文 参考訳(メタデータ) (2022-03-01T13:51:52Z) - Unsupervised Model Personalization while Preserving Privacy and
Scalability: An Open Problem [55.21502268698577]
本研究では,非教師なしモデルパーソナライゼーションの課題について検討する。
この問題を探求するための新しいDual User-Adaptation Framework(DUA)を提供する。
このフレームワークは、サーバ上のモデルパーソナライズとユーザデバイス上のローカルデータ正規化に柔軟にユーザ適応を分散させる。
論文 参考訳(メタデータ) (2020-03-30T09:35:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。