論文の概要: MobileFineTuner: A Unified End-to-End Framework for Fine-Tuning LLMs on Mobile Phones
- arxiv url: http://arxiv.org/abs/2512.08211v1
- Date: Tue, 09 Dec 2025 03:41:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.794934
- Title: MobileFineTuner: A Unified End-to-End Framework for Fine-Tuning LLMs on Mobile Phones
- Title(参考訳): MobileFineTuner: 携帯電話上での微調整LDMのための統一エンドツーエンドフレームワーク
- Authors: Jiaxiang Geng, Lunyu Zhao, Yiyi Lu, Bing Luo,
- Abstract要約: MobileFineTunerは、コモディティ携帯電話上でエンドツーエンドのLLM微調整を可能にする、統一されたオープンソースフレームワークである。
携帯電話に固有のメモリとエネルギーの制限に対処するために,システムレベルの最適化を導入する。
GPT-2, Gemma 3, Qwen 2.5を実機で微調整することで, MobileFineTunerの実用性を示す。
- 参考スコア(独自算出の注目度): 4.325104899424185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile phones are the most ubiquitous end devices, generating vast amounts of human-authored data and serving as the primary platform for end-side applications. As high-quality public data for large language models (LLMs) approaches exhaustion, on-device fine-tuning provides an opportunity to leverage private user data while preserving privacy. However, existing approaches are predominantly simulation-based or rely on IoT devices and PCs, leaving commodity mobile phones largely unexplored. A key gap is the absence of an open-source framework that enables practical LLM fine-tuning on mobile phones. We present MobileFineTuner, a unified open-source framework that enables end-to-end LLM fine-tuning directly on commodity mobile phones. MobileFineTuner is designed for efficiency, scalability, and usability, supporting full-parameters fine-tuning (Full-FT) and parameter-efficient fine-tuning (PEFT). To address the memory and energy limitations inherent to mobile phones, we introduce system-level optimizations including parameter sharding, gradient accumulation, and energy-aware computation scheduling. We demonstrate the practicality of MobileFineTuner by fine-tuning GPT-2, Gemma 3, and Qwen 2.5 on real mobile phones. Extensive experiments and ablation studies validate the effectiveness of the proposed optimizations and establish MobileFineTuner as a viable foundation for future research on on-device LLM training.
- Abstract(参考訳): 携帯電話は最もユビキタスなエンドデバイスであり、膨大な量の人間が所有するデータを生成し、エンドサイドアプリケーションの主要なプラットフォームとして機能する。
大規模言語モデル(LLM)の高品質な公開データが枯渇に近づくにつれ、デバイス上での微調整は、プライバシを保ちながらプライベートなユーザデータを活用する機会を提供する。
しかし、既存のアプローチは主にシミュレーションベースか、IoTデバイスとPCに依存しており、コモディティな携帯電話はほとんど探索されていない。
重要なギャップは、携帯電話で実用的なLCMの微調整を可能にするオープンソースのフレームワークがないことである。
そこで我々はMobileFineTunerについて紹介する。MobileFineTunerはオープンソースフレームワークであり,モバイル端末上でのエンド・ツー・エンド LLM の微調整を可能にする。
MobileFineTunerは、効率、スケーラビリティ、ユーザビリティのために設計されており、フルパラメータ細調整(Full-FT)とパラメータ効率細調整(PEFT)をサポートしている。
携帯電話に固有のメモリとエネルギーの制限に対処するために,パラメータシャーディング,勾配蓄積,エネルギーを考慮した計算スケジューリングなどのシステムレベルの最適化を導入する。
GPT-2, Gemma 3, Qwen 2.5を実機で微調整することで, MobileFineTunerの実用性を示す。
広汎な実験とアブレーション研究は,提案手法の有効性を検証し,モバイルFineTunerをデバイス上でのLCMトレーニングの将来の研究の基盤として確立する。
関連論文リスト
- Fed MobiLLM: Efficient Federated LLM Fine-Tuning over Heterogeneous Mobile Devices via Server Assisted Side-Tuning [16.47223778897796]
不均一なモバイルデバイス上の大規模言語モデル(LLM)は、パーソナライズされたインテリジェンスの潜在的な応用を促進する。
従来のLLM FTは、モバイルハードウェア上での計算とメモリの負荷を禁止している。
我々は,多種多様な計算/通信速度と局所モデルアーキテクチャを持つモバイルデバイス間での効率的なLLM FTを実現するための新しい設計であるFed MobiLLMを提案する。
論文 参考訳(メタデータ) (2025-08-09T00:41:48Z) - Dissecting the Impact of Mobile DVFS Governors on LLM Inference Performance and Energy Efficiency [20.904706759529237]
大きな言語モデル(LLM)は、数十億のモバイルデバイス上で動作するさまざまなアプリケーションやサービスに統合されつつある。
現在、リソース制限されたモバイルデバイスにLSMをデプロイすることは、計算、メモリ、最終的にはエネルギーの需要が高いため、大きな課題に直面している。
論文 参考訳(メタデータ) (2025-07-02T20:47:40Z) - Mobile-MMLU: A Mobile Intelligence Language Understanding Benchmark [45.28023118459497]
モバイルインテリジェンスに適した大規模ベンチマークデータセットであるMobile-MMLUを紹介する。
80のモバイル関連分野にわたる16,186の質問で構成され、現実的なモバイルシナリオでLLMのパフォーマンスを評価するように設計されている。
挑戦的なサブセットであるMobile-MMLU-Proは、MMLU-Proと同じようなサイズで高度な評価を提供するが、我々の標準のフルセットよりもはるかに難しい。
論文 参考訳(メタデータ) (2025-03-26T17:59:56Z) - Smooth Handovers via Smoothed Online Learning [48.953313950521746]
まず、欧州の商用モバイルネットワークオペレータ(MNO)から4000万人以上のユーザを対象に、HOに対する重要な特徴とパフォーマンスへの影響を理解し、明らかにするために、広範なデータセットを分析した。
本研究は, HO故障/遅延と無線セルとエンドユーザーデバイスの特徴の相関関係を明らかにする。
本稿では,HO最適化にデバイスとセルの機能を組み込むことで,既存のアプローチを拡張したスムーズで高精度なHOのための現実的なシステムモデルを提案する。
論文 参考訳(メタデータ) (2025-01-14T13:16:33Z) - SlimLM: An Efficient Small Language Model for On-Device Document Assistance [60.971107009492606]
SlimLMはモバイル端末上での文書支援タスクに最適化された一連のSLMである。
SlimLMはSlimPajama-627Bで事前訓練され、DocAssistで微調整されている。
我々はSlimLMを既存のSLMと比較し、同等または優れた性能を示す。
論文 参考訳(メタデータ) (2024-11-15T04:44:34Z) - Understanding Large Language Models in Your Pockets: Performance Study on COTS Mobile Devices [13.721403954332267]
大規模言語モデル(LLM)は、私たちの仕事や日常生活のあらゆる側面にますます統合されています。
ユーザのプライバシに関する懸念が高まり、これらのモデルがローカルに展開される傾向が強まっている。
急速に普及しているアプリケーションとして、市販のモバイルデバイスのパフォーマンスを懸念しています。
論文 参考訳(メタデータ) (2024-10-04T17:14:59Z) - PocketLLM: Enabling On-Device Fine-Tuning for Personalized LLMs [5.063806958859058]
モバイルデバイスでは、毎日生成される貴重な非パブリックなデータが、ローカルに微調整されたパーソナライズされたLDMにとって大きな約束である。
本稿では,メモリ制限されたモバイルデバイス上でもLCMのデバイス上での微調整を可能にするために,デリバティブフリー最適化手法を提案する。
実証実験の結果、RoBERTa-largeモデルとOPT-1.3Bは、約4GBと6.5GBのメモリを使用してOPPO Reno 6スマートフォン上でローカルに微調整できることが示された。
論文 参考訳(メタデータ) (2024-07-01T07:26:56Z) - MobileAIBench: Benchmarking LLMs and LMMs for On-Device Use Cases [81.70591346986582]
モバイル端末上でのLarge Language Models(LLM)とLarge Multimodal Models(LMM)を評価するためのベンチマークフレームワークであるMobileAIBenchを紹介する。
MobileAIBenchは、さまざまなサイズ、量子化レベル、タスクにわたるモデルを評価し、実際のデバイス上でのレイテンシとリソース消費を測定する。
論文 参考訳(メタデータ) (2024-06-12T22:58:12Z) - To Talk or to Work: Flexible Communication Compression for Energy
Efficient Federated Learning over Heterogeneous Mobile Edge Devices [78.38046945665538]
巨大なモバイルエッジデバイス上でのフェデレーション学習(FL)は、多数のインテリジェントなモバイルアプリケーションのための新たな地平を開く。
FLは、定期的なグローバル同期と継続的なローカルトレーニングにより、参加するデバイスに膨大な通信と計算負荷を課す。
フレキシブルな通信圧縮を可能にする収束保証FLアルゴリズムを開発。
論文 参考訳(メタデータ) (2020-12-22T02:54:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。