論文の概要: Enabling On-Device LLMs Personalization with Smartphone Sensing
- arxiv url: http://arxiv.org/abs/2407.04418v2
- Date: Wed, 24 Jul 2024 01:32:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-25 18:22:12.104001
- Title: Enabling On-Device LLMs Personalization with Smartphone Sensing
- Title(参考訳): スマートフォンセンシングによるオンデバイスLCMのパーソナライズ
- Authors: Shiquan Zhang, Ying Ma, Le Fang, Hong Jia, Simon D'Alfonso, Vassilis Kostakos,
- Abstract要約: このデモでは、デバイス上の大規模言語モデル(LLM)とスマートフォンセンシング技術を組み合わせた、新しいエンドツーエンドフレームワークが紹介されている。
提案するフレームワークは,医療,生産性,エンターテイメントといった分野におけるユーザエクスペリエンスを大幅に改善する可能性がある。
- 参考スコア(独自算出の注目度): 12.030382945767663
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This demo presents a novel end-to-end framework that combines on-device large language models (LLMs) with smartphone sensing technologies to achieve context-aware and personalized services. The framework addresses critical limitations of current personalization solutions via cloud LLMs, such as privacy concerns, latency and cost, and limited personal information. To achieve this, we innovatively proposed deploying LLMs on smartphones with multimodal sensor data through context-aware sensing and customized prompt engineering, ensuring privacy and enhancing personalization performance. A case study involving a university student demonstrated the capability of the framework to provide tailored recommendations. In addition, we show that the framework achieves the best trade-off in privacy, performance, latency, cost, battery and energy consumption between on-device and cloud LLMs. To the best of our knowledge, this is the first framework to provide on-device LLMs personalization with smartphone sensing. Future work will incorporate more diverse sensor data and involve extensive user studies to enhance personalization. Our proposed framework has the potential to substantially improve user experiences across domains including healthcare, productivity, and entertainment.
- Abstract(参考訳): このデモでは、デバイス上の大規模言語モデル(LLM)とスマートフォンセンシング技術を組み合わせて、コンテキスト認識およびパーソナライズされたサービスを実現する、新たなエンドツーエンドフレームワークが紹介されている。
このフレームワークは、プライバシの懸念、レイテンシとコスト、限られた個人情報など、現在のパーソナライズソリューションの重要な制限に対処する。
これを実現するために、我々は、コンテキスト認識とカスタマイズされたプロンプトエンジニアリングを通じて、マルチモーダルセンサーデータを用いたスマートフォンにLSMを配置し、プライバシーを確保し、パーソナライズ性能を向上させることを革新的に提案した。
大学生を巻き込んだケーススタディでは、適切なレコメンデーションを提供するためのフレームワークの能力を実証した。
さらに、このフレームワークは、オンデバイスとクラウドLLM間のプライバシー、パフォーマンス、レイテンシ、コスト、バッテリ、エネルギー消費において、最良のトレードオフを実現していることを示す。
我々の知る限りでは、このフレームワークはスマートフォンのセンシングでデバイス上でLLMをパーソナライズする最初のフレームワークです。
今後は、より多様なセンサーデータを組み込んで、パーソナライゼーションを強化するために広範なユーザー研究を行う予定だ。
提案するフレームワークは,医療,生産性,エンターテイメントといった分野におけるユーザエクスペリエンスを大幅に改善する可能性がある。
関連論文リスト
- SlimLM: An Efficient Small Language Model for On-Device Document Assistance [60.971107009492606]
SlimLMはモバイル端末上での文書支援タスクに最適化された一連のSLMである。
SlimLMはSlimPajama-627Bで事前訓練され、DocAssistで微調整されている。
我々はSlimLMを既存のSLMと比較し、同等または優れた性能を示す。
論文 参考訳(メタデータ) (2024-11-15T04:44:34Z) - Large Language Model Performance Benchmarking on Mobile Platforms: A Thorough Evaluation [10.817783356090027]
大規模言語モデル(LLM)は、私たちの仕事や日常生活のあらゆる側面にますます統合されています。
ユーザのプライバシに関する懸念が高まり、これらのモデルがローカルに展開される傾向が強まっている。
急速に普及しているアプリケーションとして、市販のモバイルデバイスのパフォーマンスを懸念しています。
論文 参考訳(メタデータ) (2024-10-04T17:14:59Z) - Crafting Personalized Agents through Retrieval-Augmented Generation on Editable Memory Graphs [11.182641942286883]
大規模言語モデル(LLM)を利用したパーソナライズされたエージェントを作成するための新しいタスクを導入する。
EMG-RAGは、Retrieval-Augmented Generation(RAG)技術とEMG(Editable Memory Graph)技術を組み合わせたソリューションである。
実世界のデータセットの実験では、EMG-RAGの有効性が検証され、最高のアプローチよりも約10%向上した。
論文 参考訳(メタデータ) (2024-09-28T16:22:53Z) - On-Device Language Models: A Comprehensive Review [26.759861320845467]
資源制約のあるデバイスに計算コストの高い大規模言語モデルをデプロイする際の課題について検討する。
論文は、デバイス上での言語モデル、その効率的なアーキテクチャ、および最先端の圧縮技術について考察する。
主要モバイルメーカーによるオンデバイス言語モデルのケーススタディは、実世界の応用と潜在的な利益を実証している。
論文 参考訳(メタデータ) (2024-08-26T03:33:36Z) - Mobile Edge Intelligence for Large Language Models: A Contemporary Survey [32.22789677882933]
モバイルエッジインテリジェンス(MEI)は、クラウドコンピューティングに対するプライバシとレイテンシを改善した、モバイルネットワークのエッジ内のAI機能を提供する。
MEIはデバイス上のAIとクラウドベースのAIの間に位置し、無線通信とエンドユーザよりも強力なコンピューティングリソースを備えている。
本稿では,LLMのMEI活用に関する現代の調査を紹介する。
論文 参考訳(メタデータ) (2024-07-09T13:47:05Z) - MobileAIBench: Benchmarking LLMs and LMMs for On-Device Use Cases [81.70591346986582]
モバイル端末上でのLarge Language Models(LLM)とLarge Multimodal Models(LMM)を評価するためのベンチマークフレームワークであるMobileAIBenchを紹介する。
MobileAIBenchは、さまざまなサイズ、量子化レベル、タスクにわたるモデルを評価し、実際のデバイス上でのレイテンシとリソース消費を測定する。
論文 参考訳(メタデータ) (2024-06-12T22:58:12Z) - Personal LLM Agents: Insights and Survey about the Capability, Efficiency and Security [34.67477557318947]
我々は、個人データやパーソナルデバイスと深く統合されたLLMベースのエージェントであるPersonal LLM Agentsに焦点を当てる。
我々は、パーソナライズ LLM Agents が、今後エンドユーザーにとって主要なソフトウェアパラダイムになることを期待している。
論文 参考訳(メタデータ) (2024-01-10T09:25:45Z) - The Security and Privacy of Mobile Edge Computing: An Artificial Intelligence Perspective [64.36680481458868]
Mobile Edge Computing (MEC)は、クラウドコンピューティングと情報技術(IT)サービスをネットワークのエッジで配信できるようにする新しいコンピューティングパラダイムである。
本稿では,人工知能(AI)の観点からMECのセキュリティとプライバシに関する調査を行う。
新たなセキュリティとプライバシの問題に加えて、AIの観点からの潜在的なソリューションにも重点を置いています。
論文 参考訳(メタデータ) (2024-01-03T07:47:22Z) - Federated Learning for 6G: Paradigms, Taxonomy, Recent Advances and
Insights [52.024964564408]
本稿では,プロトコルスタックのすべてのレベルにわたってフェデレートラーニングを実装することの付加価値について検討する。
それは重要なFLアプリケーションを示し、ホットトピックに対処し、将来の研究と開発のための貴重な洞察と明示的なガイダンスを提供します。
我々の結論は、FLと将来の6Gの相乗効果を活用しつつ、FLがワイヤレス産業に革命をもたらす可能性を浮き彫りにすることを目的としています。
論文 参考訳(メタデータ) (2023-12-07T20:39:57Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient Communication with ADMM [62.62684911017472]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z) - SensiX: A Platform for Collaborative Machine Learning on the Edge [69.1412199244903]
センサデータとセンサモデルの間に留まるパーソナルエッジプラットフォームであるSensiXを紹介する。
動作および音声に基づくマルチデバイスセンシングシステムの開発において,その有効性を示す。
評価の結果,SensiXは3mWのオーバヘッドを犠牲にして,全体の精度が7~13%向上し,環境のダイナミクスが最大30%向上することがわかった。
論文 参考訳(メタデータ) (2020-12-04T23:06:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。