論文の概要: Offloading Algorithms for Maximizing Inference Accuracy on Edge Device
Under a Time Constraint
- arxiv url: http://arxiv.org/abs/2112.11413v1
- Date: Tue, 21 Dec 2021 18:21:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 16:29:10.653400
- Title: Offloading Algorithms for Maximizing Inference Accuracy on Edge Device
Under a Time Constraint
- Title(参考訳): 時間制約下におけるエッジデバイス上の推論精度を最大化するオフロードアルゴリズム
- Authors: Andrea Fresa and Jaya Prakash Champati
- Abstract要約: 近似アルゴリズム AMR2 を提案し,最大 2T でメイスパンが得られることを示す。
概念実証として,MobileNetを搭載したRaspberry PiにAMR2を実装し,ResNetを搭載したサーバに接続し,画像分類用AMR2の総合的精度とメースパン性能について検討した。
- 参考スコア(独自算出の注目度): 15.038891477389535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the emergence of edge computing, the problem of offloading jobs between
an Edge Device (ED) and an Edge Server (ES) received significant attention in
the past. Motivated by the fact that an increasing number of applications are
using Machine Learning (ML) inference, we study the problem of offloading
inference jobs by considering the following novel aspects: 1) in contrast to a
typical computational job, the processing time of an inference job depends on
the size of the ML model, and 2) recently proposed Deep Neural Networks (DNNs)
for resource-constrained devices provide the choice of scaling the model size.
We formulate an assignment problem with the aim of maximizing the total
inference accuracy of n data samples available at the ED, subject to a time
constraint T on the makespan. We propose an approximation algorithm AMR2, and
prove that it results in a makespan at most 2T, and achieves a total accuracy
that is lower by a small constant from optimal total accuracy. As proof of
concept, we implemented AMR2 on a Raspberry Pi, equipped with MobileNet, and is
connected to a server equipped with ResNet, and studied the total accuracy and
makespan performance of AMR2 for image classification application.
- Abstract(参考訳): エッジコンピューティングの出現に伴い、エッジデバイス(ED)とエッジサーバ(ES)の間でジョブをオフロードする問題は過去にも大きな注目を集めていた。
機械学習(ML)推論を応用しているアプリケーションが増えつつあることを踏まえ, 推論ジョブをオフロードする問題について, 以下の新しい側面を考慮し検討する。
1)典型的な計算ジョブとは対照的に、推論ジョブの処理時間はMLモデルのサイズに依存する。
2) 最近提案された資源制約デバイスのためのDeep Neural Networks (DNN) は,モデルサイズをスケールする選択肢を提供する。
我々は,makespan 上の時間制約 t に基づき,ed で利用可能な n 個のデータサンプルの総推定精度を最大化するために代入問題を定式化する。
近似アルゴリズムであるamr2を提案し,最大2tのメイズパンが得られることを証明した。
概念実証として,MobileNetを搭載したRaspberry PiにAMR2を実装し,ResNetを搭載したサーバに接続し,画像分類のためのAMR2の総合的精度と性能について検討した。
関連論文リスト
- Active Inference on the Edge: A Design Study [5.815300670677979]
アクティブ推論(アクティブ推論、英: Active Inference、ACI)とは、脳が知覚情報を常に予測し評価し、長期的サプライズを減らす方法を記述する神経科学の概念である。
我々は,ACIエージェントが要求を満たすことなく,最適化問題を迅速かつ追跡的に解決できたことを示す。
論文 参考訳(メタデータ) (2023-11-17T16:03:04Z) - Probabilistic MIMO U-Net: Efficient and Accurate Uncertainty Estimation
for Pixel-wise Regression [1.4528189330418977]
機械学習における不確実性推定は、予測モデルの信頼性と解釈可能性を高めるための最重要課題である。
画素ワイド回帰タスクに対するMIMO(Multiple-Input Multiple-Output)フレームワークの適応について述べる。
論文 参考訳(メタデータ) (2023-08-14T22:08:28Z) - Fast and Private Inference of Deep Neural Networks by Co-designing Activation Functions [26.125340303868335]
現在のアプローチは大きな推論時間に悩まされている。
推論モデルと精度を競合させる新しいトレーニングアルゴリズムを提案する。
我々の評価では、最大2300万のパラメータを持つ大規模モデルにおいて、推論時間の3ドルから110倍のスピードアップが示されています。
論文 参考訳(メタデータ) (2023-06-14T14:38:25Z) - Design and Prototyping Distributed CNN Inference Acceleration in Edge
Computing [85.74517957717363]
HALPはエッジコンピューティングにおけるエッジデバイス(ED)間のシームレスなコラボレーションを設計することで推論を加速する。
実験により、分散推論HALPはVGG-16に対して1.7倍の推論加速を達成することが示された。
分散推論HALPを用いたモデル選択は,サービスの信頼性を著しく向上させることができる。
論文 参考訳(メタデータ) (2022-11-24T19:48:30Z) - Task-Oriented Sensing, Computation, and Communication Integration for
Multi-Device Edge AI [108.08079323459822]
本稿では,AIモデルの分割推論と統合センシング通信(ISAC)を併用した,新しいマルチインテリジェントエッジ人工レイテンシ(AI)システムについて検討する。
推定精度は近似的だが抽出可能な計量、すなわち判別利得を用いて測定する。
論文 参考訳(メタデータ) (2022-07-03T06:57:07Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - Latency-Memory Optimized Splitting of Convolution Neural Networks for
Resource Constrained Edge Devices [1.6873748786804317]
我々は、エッジデバイスとクラウド間でCNNを実行することは、リソース制約のある最適化問題を解決することと同義であると主張している。
実世界のエッジデバイスでの実験では、LMOSはエッジで異なるCNNモデルの実行可能な実行を保証する。
論文 参考訳(メタデータ) (2021-07-19T19:39:56Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Knowledge Distillation for Mobile Edge Computation Offloading [14.417463848473494]
本稿では,Deep Imitation Learning(DIL)とKD(Knowledge Distillation)に基づくエッジ計算のオフロードフレームワークを提案する。
我々のモデルはすべての政策の中で最短の推論遅延を持っている。
論文 参考訳(メタデータ) (2020-04-09T04:58:46Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z) - Joint Parameter-and-Bandwidth Allocation for Improving the Efficiency of
Partitioned Edge Learning [73.82875010696849]
機械学習アルゴリズムは、人工知能(AI)モデルをトレーニングするために、ネットワークエッジにデプロイされる。
本稿では,パラメータ(計算負荷)割り当てと帯域幅割り当ての新しい共同設計に焦点を当てる。
論文 参考訳(メタデータ) (2020-03-10T05:52:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。