論文の概要: On-Demand Multi-Task Sparsity for Efficient Large-Model Deployment on Edge Devices
- arxiv url: http://arxiv.org/abs/2511.19986v1
- Date: Tue, 25 Nov 2025 06:54:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.314839
- Title: On-Demand Multi-Task Sparsity for Efficient Large-Model Deployment on Edge Devices
- Title(参考訳): エッジデバイス上での高効率大規模配置のためのオンデマンドマルチタスクスポーサリティ
- Authors: Lianming Huang, Haibo Hu, Qiao Li, Nan Guan, Chun Jason Xue,
- Abstract要約: スイッチングコストを最小限に抑えるために,オンデマンドマルチタスク・スパシティ・フレームワークを導入する。
従来のモノリシックアプローチに固有のコールドスタート遅延を効果的に軽減する。
実世界の自動運転プラットフォームでの実験は、我々のフレームワークがより優れたスイッチング効率を達成することを示す。
- 参考スコア(独自算出の注目度): 21.02986379327923
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparsity is essential for deploying large models on resource constrained edge platforms. However, optimizing sparsity patterns for individual tasks in isolation ignores the significant I/O overhead incurred during frequent task switching. We introduce an on-demand multi-task sparsity framework specifically designed to minimize switching costs by maximizing parameter reuse. Unlike monolithic approaches, we decompose weights into reusable block-granular units and align sparse structures across tasks to maximize overlap. By dynamically loading only the small differential set of blocks required for the next task, our method effectively mitigates the cold-start latency inherent in traditional monolithic approaches.Experiments on a real-world autonomous driving platform demonstrate that our framework achieves superior switching efficiency, accelerating task switching by over 6.6X on average compared to existing sparsity methods.
- Abstract(参考訳): リソース制約のあるエッジプラットフォームに大規模なモデルをデプロイするには、スパシティが不可欠だ。
しかし、個別タスクを分離してスパーシティパターンを最適化することは、頻繁なタスク切替時に発生する大きなI/Oオーバーヘッドを無視する。
本稿では,パラメータ再利用の最大化によるスイッチングコストの最小化を目的とした,オンデマンドマルチタスク分散フレームワークを提案する。
モノリシックアプローチとは異なり、重みを再利用可能なブロック・グラニュラー単位に分解し、タスク間でスパース構造を調整し、重なりを最大化する。
本手法は, 従来のモノリシックなアプローチによるコールドスタート遅延を効果的に軽減し, 現実の自律運転プラットフォームにおける実験により, 作業の切り換え効率が向上し, 作業の切り換え効率が6.6倍以上向上することが実証された。
関連論文リスト
- CSGO: Generalized Optimization for Cold Start in Wireless Collaborative Edge LLM Systems [62.24576366776727]
本稿では,全体の推論遅延を最小限に抑えるために,遅延を考慮したスケジューリングフレームワークを提案する。
提案手法は,ベースライン戦略と比較して,コールドスタート遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2025-08-15T07:49:22Z) - Bigger, Regularized, Categorical: High-Capacity Value Functions are Efficient Multi-Task Learners [60.75160178669076]
オンライン強化学習におけるタスク干渉の問題に対して,クロスエントロピーを用いて訓練し,学習可能なタスク埋め込みを条件とした高容量値モデルの使用が課題であることを示す。
280以上のユニークなタスクを持つ7つのマルチタスクベンチマークで、高い自由度ヒューマノイド制御と離散視覚ベースのRLにまたがるアプローチを検証した。
論文 参考訳(メタデータ) (2025-05-29T06:41:45Z) - RECAST: Reparameterized, Compact weight Adaptation for Sequential Tasks [16.512587987753967]
RECASTはタスク固有のトレーニング可能なパラメータを50未満に劇的に削減する新しい手法である。
本稿では,RECASTが様々なスケール,アーキテクチャ,パラメータ空間において,最先端の技術を最大3%向上させることを示す。
論文 参考訳(メタデータ) (2024-11-25T19:08:38Z) - SHERL: Synthesizing High Accuracy and Efficient Memory for Resource-Limited Transfer Learning [63.93193829913252]
本稿では,リソース制限シナリオに対するSHERLと呼ばれる革新的なMETL戦略を提案する。
初期経路では、中間出力は反冗長動作によって統合される。
遅延ルートでは、最小限の遅延事前トレーニングされたレイヤを利用することで、メモリオーバーヘッドのピーク需要を軽減できる。
論文 参考訳(メタデータ) (2024-07-10T10:22:35Z) - On Giant's Shoulders: Effortless Weak to Strong by Dynamic Logits Fusion [23.63688816017186]
既存の弱強法では、静的な知識伝達比と、複雑な知識を伝達するための単一の小さなモデルを用いることが多い。
本稿では,複数のタスク固有小モデルに対して,それぞれ異なるタスクに特化して動作する動的ロジット融合手法を提案する。
本手法では,シングルタスクシナリオでは96.4%,マルチタスクシナリオでは86.3%のパフォーマンスギャップを埋める。
論文 参考訳(メタデータ) (2024-06-17T03:07:41Z) - Efficient Stitchable Task Adaptation [47.94819192325723]
そこで本研究では,高度調整型モデルのパレットを効率よく作成するための新しいフレームワークであるEfficient Stitchable Task Adaptation (ESTA)を提案する。
具体的には、縫合物間で低ランク更新を共有するために、パラメータ効率の高いファインチューニングを第1に調整する。
簡単なが効果的なワンステージデプロイメントパイプラインを合理化し、デプロイすべき重要な縫合を見積もる。
論文 参考訳(メタデータ) (2023-11-29T04:31:35Z) - Parameter Efficient Multi-task Model Fusion with Partial Linearization [97.23530944186078]
パラメータ効率のよい微調整技術において,マルチタスク融合を改善する新しい手法を提案する。
提案手法は, アダプタモジュールのみを部分的に線形化し, 線形化アダプタにタスク演算を適用する。
我々の部分線形化手法は、複数のタスクをより効果的に1つのモデルに融合させることを可能にしている。
論文 参考訳(メタデータ) (2023-10-07T08:55:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。