論文の概要: Enabling On-Device LLMs Personalization with Smartphone Sensing
- arxiv url: http://arxiv.org/abs/2407.04418v1
- Date: Fri, 5 Jul 2024 11:09:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-08 13:50:07.535559
- Title: Enabling On-Device LLMs Personalization with Smartphone Sensing
- Title(参考訳): スマートフォンセンシングによるオンデバイスLCMのパーソナライズ
- Authors: Shiquan Zhang, Ying Ma, Le Fang, Hong Jia, Simon D'Alfonso, Vassilis Kostakos,
- Abstract要約: このデモでは、デバイス上の大規模言語モデル(LLM)とスマートフォンセンシング技術を組み合わせて、コンテキスト認識およびパーソナライズされたサービスを実現する、新たなエンドツーエンドフレームワークが紹介されている。
提案するフレームワークは,オンデバイスとクラウドLLM間のプライバシ,パフォーマンス,レイテンシ,コスト,バッテリ,エネルギー消費において,最高のトレードオフを実現する。
提案するフレームワークは,医療,生産性,エンターテイメントなど,さまざまな分野のユーザエクスペリエンスを著しく向上させるものと期待される。
- 参考スコア(独自算出の注目度): 12.030382945767663
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This demo presents a novel end-to-end framework that combines on-device large language models (LLMs) with smartphone sensing technologies to achieve context-aware and personalized services. The framework addresses critical limitations of current personalization solutions via cloud-based LLMs, such as privacy concerns, latency and cost, and limited personal sensor data. To achieve this, we innovatively proposed deploying LLMs on smartphones with multimodal sensor data and customized prompt engineering, ensuring privacy and enhancing personalization performance through context-aware sensing. A case study involving a university student demonstrated the proposed framework's capability to provide tailored recommendations. In addition, we show that the proposed framework achieves the best trade-off in privacy, performance, latency, cost, battery and energy consumption between on-device and cloud LLMs. Future work aims to integrate more diverse sensor data and conduct large-scale user studies to further refine the personalization. We envision the proposed framework could significantly improve user experiences in various domains such as healthcare, productivity, and entertainment by providing secure, context-aware, and efficient interactions directly on users' devices.
- Abstract(参考訳): このデモでは、デバイス上の大規模言語モデル(LLM)とスマートフォンセンシング技術を組み合わせて、コンテキスト認識およびパーソナライズされたサービスを実現する、新たなエンドツーエンドフレームワークが紹介されている。
このフレームワークは、プライバシの懸念、レイテンシとコスト、個人センサデータの制限など、クラウドベースのLLMを通じて、現在のパーソナライズソリューションの重要な制限に対処する。
そこで我々は,マルチモーダルセンサデータを用いてスマートフォンにLSMを配置し,プロンプトエンジニアリングをカスタマイズし,プライバシーを確保し,コンテキスト認識によるパーソナライズ性能を向上させることを提案する。
大学生を対象とするケーススタディでは,提案するフレームワークが適切なレコメンデーションを提供する能力を示した。
さらに,提案フレームワークは,オンデバイスとクラウド LLM 間のプライバシー,パフォーマンス,レイテンシ,コスト,バッテリ,エネルギー消費において,最良のトレードオフを実現することを示す。
今後の研究は、より多様なセンサーデータを統合することを目的として、パーソナライゼーションをさらに洗練するために、大規模なユーザスタディを実施することを目的としている。
提案するフレームワークは,医療,生産性,エンターテイメントといったさまざまな分野のユーザエクスペリエンスを,ユーザデバイスに直接,セキュアでコンテキスト対応,効率的なインタラクションを提供することによって,大幅に向上させるものと期待している。
関連論文リスト
- Large Language Model Performance Benchmarking on Mobile Platforms: A Thorough Evaluation [10.817783356090027]
大規模言語モデル(LLM)は、私たちの仕事や日常生活のあらゆる側面にますます統合されています。
ユーザのプライバシに関する懸念が高まり、これらのモデルがローカルに展開される傾向が強まっている。
急速に普及しているアプリケーションとして、市販のモバイルデバイスのパフォーマンスを懸念しています。
論文 参考訳(メタデータ) (2024-10-04T17:14:59Z) - Crafting Personalized Agents through Retrieval-Augmented Generation on Editable Memory Graphs [11.182641942286883]
大規模言語モデル(LLM)を利用したパーソナライズされたエージェントを作成するための新しいタスクを導入する。
EMG-RAGは、Retrieval-Augmented Generation(RAG)技術とEMG(Editable Memory Graph)技術を組み合わせたソリューションである。
実世界のデータセットの実験では、EMG-RAGの有効性が検証され、最高のアプローチよりも約10%向上した。
論文 参考訳(メタデータ) (2024-09-28T16:22:53Z) - On-Device Language Models: A Comprehensive Review [26.759861320845467]
資源制約のあるデバイスに計算コストの高い大規模言語モデルをデプロイする際の課題について検討する。
論文は、デバイス上での言語モデル、その効率的なアーキテクチャ、および最先端の圧縮技術について考察する。
主要モバイルメーカーによるオンデバイス言語モデルのケーススタディは、実世界の応用と潜在的な利益を実証している。
論文 参考訳(メタデータ) (2024-08-26T03:33:36Z) - Mobile Edge Intelligence for Large Language Models: A Contemporary Survey [32.22789677882933]
モバイルエッジインテリジェンス(MEI)は、クラウドコンピューティングに対するプライバシとレイテンシを改善した、モバイルネットワークのエッジ内のAI機能を提供する。
MEIはデバイス上のAIとクラウドベースのAIの間に位置し、無線通信とエンドユーザよりも強力なコンピューティングリソースを備えている。
本稿では,LLMのMEI活用に関する現代の調査を紹介する。
論文 参考訳(メタデータ) (2024-07-09T13:47:05Z) - MobileAIBench: Benchmarking LLMs and LMMs for On-Device Use Cases [81.70591346986582]
モバイル端末上でのLarge Language Models(LLM)とLarge Multimodal Models(LMM)を評価するためのベンチマークフレームワークであるMobileAIBenchを紹介する。
MobileAIBenchは、さまざまなサイズ、量子化レベル、タスクにわたるモデルを評価し、実際のデバイス上でのレイテンシとリソース消費を測定する。
論文 参考訳(メタデータ) (2024-06-12T22:58:12Z) - Personal LLM Agents: Insights and Survey about the Capability, Efficiency and Security [34.67477557318947]
我々は、個人データやパーソナルデバイスと深く統合されたLLMベースのエージェントであるPersonal LLM Agentsに焦点を当てる。
我々は、パーソナライズ LLM Agents が、今後エンドユーザーにとって主要なソフトウェアパラダイムになることを期待している。
論文 参考訳(メタデータ) (2024-01-10T09:25:45Z) - The Security and Privacy of Mobile Edge Computing: An Artificial Intelligence Perspective [64.36680481458868]
Mobile Edge Computing (MEC)は、クラウドコンピューティングと情報技術(IT)サービスをネットワークのエッジで配信できるようにする新しいコンピューティングパラダイムである。
本稿では,人工知能(AI)の観点からMECのセキュリティとプライバシに関する調査を行う。
新たなセキュリティとプライバシの問題に加えて、AIの観点からの潜在的なソリューションにも重点を置いています。
論文 参考訳(メタデータ) (2024-01-03T07:47:22Z) - Federated Learning for 6G: Paradigms, Taxonomy, Recent Advances and
Insights [52.024964564408]
本稿では,プロトコルスタックのすべてのレベルにわたってフェデレートラーニングを実装することの付加価値について検討する。
それは重要なFLアプリケーションを示し、ホットトピックに対処し、将来の研究と開発のための貴重な洞察と明示的なガイダンスを提供します。
我々の結論は、FLと将来の6Gの相乗効果を活用しつつ、FLがワイヤレス産業に革命をもたらす可能性を浮き彫りにすることを目的としています。
論文 参考訳(メタデータ) (2023-12-07T20:39:57Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient Communication with ADMM [62.62684911017472]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z) - SensiX: A Platform for Collaborative Machine Learning on the Edge [69.1412199244903]
センサデータとセンサモデルの間に留まるパーソナルエッジプラットフォームであるSensiXを紹介する。
動作および音声に基づくマルチデバイスセンシングシステムの開発において,その有効性を示す。
評価の結果,SensiXは3mWのオーバヘッドを犠牲にして,全体の精度が7~13%向上し,環境のダイナミクスが最大30%向上することがわかった。
論文 参考訳(メタデータ) (2020-12-04T23:06:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。