論文の概要: ECCENTRIC: Edge-Cloud Collaboration Framework for Distributed Inference Using Knowledge Adaptation
- arxiv url: http://arxiv.org/abs/2511.11719v1
- Date: Wed, 12 Nov 2025 22:43:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.099876
- Title: ECCENTRIC: Edge-Cloud Collaboration Framework for Distributed Inference Using Knowledge Adaptation
- Title(参考訳): ECCENTRIC:知識適応を用いた分散推論のためのエッジクラウド協調フレームワーク
- Authors: Mohammad Mahdi Kamani, Zhongwei Cheng, Lin Chen,
- Abstract要約: クラウド推論システムは、計算と通信コストが劇的に増大している間に、最高のパフォーマンスを達成することができる。
我々は、これらの対立する目標間のトレードオフのレベルが異なるモデルを学ぶ、Eccentricと呼ばれる新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.659994546640296
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The massive growth in the utilization of edge AI has made the applications of machine learning models ubiquitous in different domains. Despite the computation and communication efficiency of these systems, due to limited computation resources on edge devices, relying on more computationally rich systems on the cloud side is inevitable in most cases. Cloud inference systems can achieve the best performance while the computation and communication cost is dramatically increasing by the expansion of a number of edge devices relying on these systems. Hence, there is a trade-off between the computation, communication, and performance of these systems. In this paper, we propose a novel framework, dubbed as Eccentric that learns models with different levels of trade-offs between these conflicting objectives. This framework, based on an adaptation of knowledge from the edge model to the cloud one, reduces the computation and communication costs of the system during inference while achieving the best performance possible. The Eccentric framework can be considered as a new form of compression method suited for edge-cloud inference systems to reduce both computation and communication costs. Empirical studies on classification and object detection tasks corroborate the efficacy of this framework.
- Abstract(参考訳): エッジAIの利用の大幅な増加は、さまざまなドメインで機械学習モデルの適用をユビキタスなものにしている。
これらのシステムの計算と通信効率にもかかわらず、エッジデバイス上の限られた計算資源のため、クラウド側のより計算に富んだシステムに依存することは、ほとんどの場合避けられない。
クラウド推論システムは、これらのシステムに依存する複数のエッジデバイスの拡張により、計算と通信コストが劇的に増大している間に、最高のパフォーマンスを達成することができる。
したがって、これらのシステムの計算、通信、性能にはトレードオフがある。
本稿では,これらの対立する目標間のトレードオフのレベルが異なるモデルを学ぶ,Eccentricと呼ばれる新しいフレームワークを提案する。
このフレームワークは、エッジモデルからクラウドモデルへの知識の適応に基づいて、推論中のシステムの計算と通信コストを低減し、最高の性能を達成する。
Eccentric frameworkは、エッジクラウド推論システムに適した新しい圧縮方式として、計算コストと通信コストの両方を削減することができる。
分類および対象検出タスクに関する実証的研究は、このフレームワークの有効性を裏付けるものである。
関連論文リスト
- Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - Edge-First Language Model Inference: Models, Metrics, and Tradeoffs [0.7980273012483663]
本研究は、単一エッジデバイス上でのSLM機能の詳細なベンチマークから始まる、エッジとクラウドのデプロイメント間の相互作用について検討する。
エッジ推論が低コストで同等のパフォーマンスを提供するシナリオや、スケーラビリティやモデルキャパシティの制限によりクラウドのフォールバックが不可欠になるシナリオを特定します。
プラットフォームレベルの比較と設計の洞察を,一様かつ適応的なLM推論システム構築のために提案する。
論文 参考訳(メタデータ) (2025-05-22T10:43:00Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Center-Sensitive Kernel Optimization for Efficient On-Device Incremental Learning [88.78080749909665]
現在のオンデバイストレーニング手法は、破滅的な忘れを考慮せずに、効率的なトレーニングにのみ焦点をあてている。
本稿では,単純だが効果的なエッジフレンドリーなインクリメンタル学習フレームワークを提案する。
本手法は,メモリの削減と近似計算により,平均精度38.08%の高速化を実現する。
論文 参考訳(メタデータ) (2024-06-13T05:49:29Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - Fault-Tolerant Collaborative Inference through the Edge-PRUNE Framework [4.984601297028258]
協調推論(Collaborative Inference)は、計算負荷の分散、レイテンシの低減、通信におけるプライバシ保護への対処のための手段である。
本稿では, フォールトトレラントな協調推論のための柔軟な基盤を提供するエッジ-PRUNE分散計算フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T13:16:53Z) - Communication-Computation Trade-Off in Resource-Constrained Edge
Inference [5.635540684037595]
本稿では,資源制約のあるデバイスにおけるエッジ推論の効果的な手法を提案する。
エッジコンピューティングサーバが支援するデバイスとエッジのコ推論に重点を置いている。
効果的な推論のために3段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T11:00:32Z) - Incentive Mechanism Design for Resource Sharing in Collaborative Edge
Learning [106.51930957941433]
5GとBeyondネットワークでは、人工知能のアプリケーションがますます普及すると予想されている。
これは、現在のクラウド中心のモデルトレーニングアプローチから、エッジラーニングとして知られるエッジコンピューティングベースの協調学習スキームへのパラダイムシフトを必要とする。
論文 参考訳(メタデータ) (2020-05-31T12:45:06Z) - AutoScale: Optimizing Energy Efficiency of End-to-End Edge Inference
under Stochastic Variance [11.093360539563657]
AutoScaleは、カスタム設計の強化学習アルゴリズムに基づいて構築された、適応的で軽量な実行スケーリングエンジンである。
本稿では,エッジでの高精度かつエネルギー効率の高いディープラーニング推論を実現するためのAutoScaleを提案する。
論文 参考訳(メタデータ) (2020-05-06T00:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。