論文の概要: Towards Privacy-Preserving and Personalized Smart Homes via Tailored Small Language Models
- arxiv url: http://arxiv.org/abs/2507.08878v1
- Date: Thu, 10 Jul 2025 05:36:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:21.672683
- Title: Towards Privacy-Preserving and Personalized Smart Homes via Tailored Small Language Models
- Title(参考訳): 小言語モデルによるプライバシ保護とパーソナライズされたスマートホームの実現に向けて
- Authors: Xinyu Huang, Leming Shen, Zijing Ma, Yuanqing Zheng,
- Abstract要約: HomeLLaMAは、プライバシ保護とパーソナライズされたスマートホームサービスのためのオンデバイスアシスタントであり、カスタマイズされた小型言語モデル(SLM)を備えている。
HomeLLaMAはクラウドLLMから学び、満足いく応答を提供し、ユーザフレンドリなインタラクションを可能にする。
PrivShieldはプライバシー保護のLLMベースのスマートホームサービスで、ローカルな応答に満足せず、リモートサーバーに低感度のクエリを送信したいというユーザーのために提供されている。
- 参考スコア(独自算出の注目度): 9.45861888600915
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Large Language Models (LLMs) have showcased remarkable generalizability in language comprehension and hold significant potential to revolutionize human-computer interaction in smart homes. Existing LLM-based smart home assistants typically transmit user commands, along with user profiles and home configurations, to remote servers to obtain personalized services. However, users are increasingly concerned about the potential privacy leaks to the remote servers. To address this issue, we develop HomeLLaMA, an on-device assistant for privacy-preserving and personalized smart home serving with a tailored small language model (SLM). HomeLLaMA learns from cloud LLMs to deliver satisfactory responses and enable user-friendly interactions. Once deployed, HomeLLaMA facilitates proactive interactions by continuously updating local SLMs and user profiles. To further enhance user experience while protecting their privacy, we develop PrivShield to offer an optional privacy-preserving LLM-based smart home serving for those users, who are unsatisfied with local responses and willing to send less-sensitive queries to remote servers. For evaluation, we build a comprehensive benchmark DevFinder to assess the service quality. Extensive experiments and user studies (M=100) demonstrate that HomeLLaMA can provide personalized services while significantly enhancing user privacy.
- Abstract(参考訳): 大規模言語モデル(LLM)は言語理解において顕著な一般化性を示し、スマートホームにおける人間とコンピュータの相互作用に革命をもたらす大きな可能性を秘めている。
既存のLLMベースのスマートホームアシスタントは、ユーザプロファイルやホーム設定とともに、リモートサーバに送信してパーソナライズされたサービスを取得するのが一般的である。
しかし、ユーザーはリモートサーバーへのプライバシー漏洩の可能性をますます心配している。
この問題に対処するため、我々は、プライバシ保護とパーソナライズされたスマートホームサービスのためのデバイス上でのアシスタントであるHomeLLaMAを開発した。
HomeLLaMAはクラウドLLMから学び、満足いく応答を提供し、ユーザフレンドリなインタラクションを可能にする。
デプロイが完了すると、HomeLLaMAはローカルのSLMとユーザプロファイルを継続的に更新することで、プロアクティブなインタラクションを促進する。
プライバシを保護しながらユーザエクスペリエンスをさらに向上するため,ローカル応答に満足せず,リモートサーバに低感度クエリを送信しようとするユーザに対して,プライバシ保護のLLMベースのスマートホームサービスを提供するPrivShieldを開発した。
評価のために、サービス品質を評価するために、包括的なベンチマークDevFinderを構築します。
大規模な実験とユーザスタディ(M=100)は、HomeLLaMAがパーソナライズされたサービスを提供すると同時に、ユーザのプライバシを大幅に向上することを示した。
関連論文リスト
- Controlling What You Share: Assessing Language Model Adherence to Privacy Preferences [80.63946798650653]
プライバシプロファイルを使用してデータのコントロールを継続する方法について検討する。
ローカルモデルがこれらの命令を使ってクエリを書き換えるフレームワークを構築します。
本研究を支援するために,実ユーザクエリの多言語データセットを導入し,プライベートコンテンツをマークする。
論文 参考訳(メタデータ) (2025-07-07T18:22:55Z) - PersonaAgent: When Large Language Model Agents Meet Personalization at Test Time [87.99027488664282]
PersonaAgentは、汎用的なパーソナライゼーションタスクに対処するために設計されたフレームワークである。
パーソナライズされたメモリモジュールとパーソナライズされたアクションモジュールを統合する。
テストタイムのユーザ嗜好アライメント戦略は、リアルタイムのユーザの嗜好アライメントを保証する。
論文 参考訳(メタデータ) (2025-06-06T17:29:49Z) - Know Me, Respond to Me: Benchmarking LLMs for Dynamic User Profiling and Personalized Responses at Scale [51.9706400130481]
大規模言語モデル(LLM)は、幅広いタスクでユーザのためのパーソナライズされたアシスタントとして登場した。
PERSONAMEMは180以上のユーザ-LLMインタラクション履歴を持つキュレートされたユーザプロファイルを備えている。
LLMチャットボットのユーザプロファイルの現在状況に応じて,最も適切な応答を識別する能力を評価する。
論文 参考訳(メタデータ) (2025-04-19T08:16:10Z) - PRIV-QA: Privacy-Preserving Question Answering for Cloud Large Language Models [10.050972891318324]
本稿では,ユーザと大規模言語モデル間のインタラクションにおいて,プライバシとセンシティブな情報を保護するためのプライバシ保護パイプラインを提案する。
プライバシを開放した最初の質問応答データセットであるSensitiveQAを構築した。
提案手法は,クラウド上でのLCMの応答品質を同時に保ちながら,ユーザ情報の事前確保を目的としたマルチステージ戦略を用いている。
論文 参考訳(メタデータ) (2025-02-19T09:17:07Z) - Large Language Models Empowered Personalized Web Agents [54.944908837494374]
Webエージェントは、従来のエージェントから、LLM(Large Language Models)ベースのWebエージェントへと進化してきた。
まず, LLMを活用したパーソナライズされたWebエージェントのタスクを定式化し, パーソナライズされたデータとユーザ指示を統合する。
我々はパーソナライズされたユーザメモリ拡張アライメント(PUMA)フレームワークを提案し、パーソナライズされたWebエージェントタスクにLLMを適用する。
論文 参考訳(メタデータ) (2024-10-22T17:54:45Z) - PAPILLON: Privacy Preservation from Internet-based and Local Language Model Ensembles [21.340456482528136]
APIベースおよびローカルモデルをチェーンする新しいタスクであるPrivacy-Conscious Delegationを提案する。
我々は最近のユーザ-LLMインタラクションの公開コレクションを利用して、PUPAと呼ばれる自然なベンチマークを構築する。
私たちの最高のパイプラインは、85.5%のユーザクエリに対して高い応答品質を維持しながら、プライバシリークを7.5%に制限しています。
論文 参考訳(メタデータ) (2024-10-22T16:00:26Z) - CAMPHOR: Collaborative Agents for Multi-input Planning and High-Order Reasoning On Device [2.4100803794273005]
本稿では、複数のユーザ入力を処理し、個人的コンテキストを局所的に理性的に扱うように設計された、オンデバイス・スモールランゲージ・モデル(SLM)フレームワークを提案する。
CAMPHORは階層的アーキテクチャを採用しており、高階推論エージェントは複雑なタスクを分解し、個人のコンテキスト検索、ツールインタラクション、動的プラン生成に責任を持つ専門家エージェントを調整する。
エージェント間でパラメータ共有を実装し、即時圧縮を活用することにより、モデルサイズ、レイテンシ、メモリ使用量を大幅に削減する。
論文 参考訳(メタデータ) (2024-10-12T07:28:10Z) - Enabling On-Device LLMs Personalization with Smartphone Sensing [12.030382945767663]
このデモでは、デバイス上の大規模言語モデル(LLM)とスマートフォンセンシング技術を組み合わせた、新しいエンドツーエンドフレームワークが紹介されている。
提案するフレームワークは,医療,生産性,エンターテイメントといった分野におけるユーザエクスペリエンスを大幅に改善する可能性がある。
論文 参考訳(メタデータ) (2024-07-05T11:09:05Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt Engineer [57.04801796205638]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - Privacy-Preserving Prompt Tuning for Large Language Model Services [12.722029496981808]
本稿では,LLM(Large Language Models)サービスのプライバシ保証を提供するフレームワークを提案する。
textscraptはローカルのプライバシー設定を採用しており、ユーザーはローカルの差分プライバシーでデータを民営化することができる。
フレームワークの単純さにもかかわらず、RAPTは敵に対するプライバシー保証を提供しながら、タスク間での競合的なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-05-10T14:41:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。