論文の概要: A Contemporary Overview: Trends and Applications of Large Language Models on Mobile Devices
- arxiv url: http://arxiv.org/abs/2412.03772v1
- Date: Wed, 04 Dec 2024 23:25:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:41:15.927424
- Title: A Contemporary Overview: Trends and Applications of Large Language Models on Mobile Devices
- Title(参考訳): モバイル端末における大規模言語モデルの動向と応用
- Authors: Lianjun Liu, Hongli An, Pengxuan Chen, Longxiang Ye,
- Abstract要約: 大きな言語モデル(LLM)は、より自然でパーソナライズされたユーザーエクスペリエンスを提供する。
モバイルデバイスへのデプロイメントは、インテリジェントデバイス分野において、徐々に重要なトレンドになりつつある。
LLMは、音声アシスタント、リアルタイム翻訳、インテリジェントレコメンデーションなどの応用において、大きな可能性を実証している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: With the rapid development of large language models (LLMs), which possess powerful natural language processing and generation capabilities, LLMs are poised to provide more natural and personalized user experiences. Their deployment on mobile devices is gradually becoming a significant trend in the field of intelligent devices. LLMs have demonstrated tremendous potential in applications such as voice assistants, real-time translation, and intelligent recommendations. Advancements in hardware technologies (such as neural network accelerators) and network infrastructure (such as 5G) have enabled efficient local inference and low-latency intelligent responses on mobile devices. This reduces reliance on cloud computing while enhancing data privacy and security. Developers can easily integrate LLM functionalities through open APIs and SDKs, enabling the creation of more innovative intelligent applications. The widespread use of LLMs not only enhances the intelligence of mobile devices but also fosters the integrated innovation of fields like augmented reality (AR) and the Internet of Things (IoT). This trend is expected to drive the development of the next generation of mobile intelligent applications.
- Abstract(参考訳): 強力な自然言語処理と生成能力を持つ大規模言語モデル(LLM)の急速な開発により、LLMはより自然でパーソナライズされたユーザーエクスペリエンスを提供する。
モバイルデバイスへのデプロイメントは、インテリジェントデバイス分野において、徐々に重要なトレンドになりつつある。
LLMは、音声アシスタント、リアルタイム翻訳、インテリジェントレコメンデーションなどの応用において、大きな可能性を実証している。
ハードウェア技術(ニューラルネットワークアクセラレータなど)とネットワークインフラストラクチャ(5Gなど)の進歩は、モバイルデバイス上で効率的なローカル推論と低レイテンシなインテリジェントレスポンスを可能にしている。
これにより、データのプライバシとセキュリティを強化しながら、クラウドコンピューティングへの依存を減らすことができる。
開発者はオープンAPIやSDKを通じて簡単にLCM機能を統合でき、より革新的なインテリジェントなアプリケーションを作成することができる。
LLMの普及は、モバイルデバイスのインテリジェンスを高めるだけでなく、拡張現実(AR)やIoT(Internet of Things)といった分野の統合イノベーションを促進する。
この傾向は、次世代のモバイルインテリジェントアプリケーションの開発を促進することが期待されている。
関連論文リスト
- On-Device Language Models: A Comprehensive Review [26.759861320845467]
資源制約のあるデバイスに計算コストの高い大規模言語モデルをデプロイする際の課題について検討する。
論文は、デバイス上での言語モデル、その効率的なアーキテクチャ、および最先端の圧縮技術について考察する。
主要モバイルメーカーによるオンデバイス言語モデルのケーススタディは、実世界の応用と潜在的な利益を実証している。
論文 参考訳(メタデータ) (2024-08-26T03:33:36Z) - Large Language Models for Base Station Siting: Intelligent Deployment based on Prompt or Agent [62.16747639440893]
大規模言語モデル(LLM)とその関連技術は、特に迅速な工学とエージェント工学の領域において進歩している。
このアプローチは、人間の経験と知識をこれらの洗練されたLLMに注入するために、巧妙なプロンプトの戦略的利用を必要とする。
この統合は、サービスとしての人工知能(AI)と、より容易なAIの将来のパラダイムを表している。
論文 参考訳(メタデータ) (2024-08-07T08:43:32Z) - A General-Purpose Device for Interaction with LLMs [3.052172365469752]
本稿では,大規模言語モデル(LLM)と高度なハードウェアの統合について検討する。
我々は,LLMとの対話性の向上を目的とした汎用デバイスの開発に焦点をあてる。
論文 参考訳(メタデータ) (2024-08-02T23:43:29Z) - Mobile Edge Intelligence for Large Language Models: A Contemporary Survey [32.22789677882933]
モバイルエッジインテリジェンス(MEI)は、クラウドコンピューティングに対するプライバシとレイテンシを改善した、モバイルネットワークのエッジ内のAI機能を提供する。
MEIはデバイス上のAIとクラウドベースのAIの間に位置し、無線通信とエンドユーザよりも強力なコンピューティングリソースを備えている。
本稿では,LLMのMEI活用に関する現代の調査を紹介する。
論文 参考訳(メタデータ) (2024-07-09T13:47:05Z) - LVLM-Interpret: An Interpretability Tool for Large Vision-Language Models [50.259006481656094]
本稿では,大規模視覚言語モデルの内部メカニズムの理解を目的とした対話型アプリケーションを提案する。
このインタフェースは, 画像パッチの解釈可能性を高めるために設計されており, 応答の生成に有効である。
本稿では,一般的な大規模マルチモーダルモデルであるLLaVAにおける障害機構の理解に,アプリケーションがどのように役立つかのケーススタディを示す。
論文 参考訳(メタデータ) (2024-04-03T23:57:34Z) - When Large Language Model Agents Meet 6G Networks: Perception,
Grounding, and Alignment [100.58938424441027]
モバイル端末とエッジサーバの協調を利用した6GネットワークにおけるAIエージェントの分割学習システムを提案する。
提案システムでは,LLMのための新しいモデルキャッシングアルゴリズムを導入し,コンテキストにおけるモデル利用を改善する。
論文 参考訳(メタデータ) (2024-01-15T15:20:59Z) - Federated Learning for 6G: Paradigms, Taxonomy, Recent Advances and
Insights [52.024964564408]
本稿では,プロトコルスタックのすべてのレベルにわたってフェデレートラーニングを実装することの付加価値について検討する。
それは重要なFLアプリケーションを示し、ホットトピックに対処し、将来の研究と開発のための貴重な洞察と明示的なガイダンスを提供します。
我々の結論は、FLと将来の6Gの相乗効果を活用しつつ、FLがワイヤレス産業に革命をもたらす可能性を浮き彫りにすることを目的としています。
論文 参考訳(メタデータ) (2023-12-07T20:39:57Z) - Revolutionizing Mobile Interaction: Enabling a 3 Billion Parameter GPT
LLM on Mobile [0.0]
本稿では, 数十億のパラメータを持つLCMを, ネットワーク接続のないモバイルデバイス上で直接実行できる未来を想定する, LLM推論に対する革新的なアプローチを提案する。
この記事は、30億のパラメータを持つ微調整のGPT LLMを紹介し、4GBのメモリを持つデバイス上でスムーズに動作可能である。
ネイティブコードとモデル量子化技術の統合により、アプリケーションは汎用アシスタントとして機能するだけでなく、テキスト対アクション機能とのシームレスなモバイルインタラクションを促進する。
論文 参考訳(メタデータ) (2023-09-29T16:30:49Z) - Large Language Models Empowered Autonomous Edge AI for Connected
Intelligence [51.269276328087855]
エッジ人工知能(Edge AI)は、コネクテッドインテリジェンスを実現するための有望なソリューションである。
この記事では、ユーザのさまざまな要件を満たすために自動的に組織化し、適応し、最適化する、自律的なエッジAIシステムのビジョンを示す。
論文 参考訳(メタデータ) (2023-07-06T05:16:55Z) - Towards Implementing Energy-aware Data-driven Intelligence for Smart
Health Applications on Mobile Platforms [4.648824029505978]
デバイス上でのディープラーニングフレームワークは、モバイルプラットフォームのコンピューティングリソースをシームレスに活用するのに熟練している。
しかし、モバイル機器のエネルギー資源は通常限られている。
我々はエネルギーを意識した適応モデル理解と実現を通じて新しい枠組みを導入する。
論文 参考訳(メタデータ) (2023-02-01T15:34:24Z) - Enable Deep Learning on Mobile Devices: Methods, Systems, and
Applications [46.97774949613859]
ディープニューラルネットワーク(DNN)は人工知能(AI)分野において前例のない成功を収めた
しかし、それらの優れた性能は、計算の複雑さのかなりのコストを伴っている。
本稿では,効率的なディープラーニング手法,システム,応用について概説する。
論文 参考訳(メタデータ) (2022-04-25T16:52:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。