論文の概要: Towards Unsupervised Fine-Tuning for Edge Video Analytics
- arxiv url: http://arxiv.org/abs/2104.06826v1
- Date: Wed, 14 Apr 2021 12:57:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 13:25:36.057184
- Title: Towards Unsupervised Fine-Tuning for Edge Video Analytics
- Title(参考訳): エッジビデオ分析のための教師なしファインチューニングに向けて
- Authors: Daniel Rivas, Francesc Guim, Jord\`a Polo, Josep Ll. Berral, Pubudu M.
Silva, David Carrera
- Abstract要約: 自動モデル特殊化による余分な計算コストを伴わずにエッジモデルの精度を向上させる手法を提案する。
その結果,本手法は,事前学習モデルの精度を平均21%向上できることがわかった。
- 参考スコア(独自算出の注目度): 1.1091582432763736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Judging by popular and generic computer vision challenges, such as the
ImageNet or PASCAL VOC, neural networks have proven to be exceptionally
accurate in recognition tasks. However, state-of-the-art accuracy often comes
at a high computational price, requiring equally state-of-the-art and high-end
hardware acceleration to achieve anything near real-time performance. At the
same time, use cases such as smart cities or autonomous vehicles require an
automated analysis of images from fixed cameras in real-time. Due to the huge
and constant amount of network bandwidth these streams would generate, we
cannot rely on offloading compute to the omnipresent and omnipotent cloud.
Therefore, a distributed Edge Cloud must be in charge to process images
locally. However, the Edge Cloud is, by nature, resource-constrained, which
puts a limit on the computational complexity of the models executed in the
edge. Nonetheless, there is a need for a meeting point between the Edge Cloud
and accurate real-time video analytics. In this paper, we propose a method for
improving accuracy of edge models without any extra compute cost by means of
automatic model specialization. First, we show how the sole assumption of
static cameras allows us to make a series of considerations that greatly
simplify the scope of the problem. Then, we present Edge AutoTuner, a framework
that implements and brings these considerations together to automate the
end-to-end fine-tuning of models. Finally, we show that complex neural networks
- able to generalize better - can be effectively used as teachers to annotate
datasets for the fine-tuning of lightweight neural networks and tailor them to
the specific edge context, which boosts accuracy at constant computational
cost, and do so without any human interaction. Results show that our method can
automatically improve accuracy of pre-trained models by an average of 21%.
- Abstract(参考訳): ImageNetやPASCAL VOCのような一般的なコンピュータビジョンの課題から判断すると、ニューラルネットワークは認識タスクにおいて極めて正確であることが証明されている。
しかし、最先端の精度は計算コストが高く、リアルタイムに近い性能を達成するには最先端のハードウェアアクセラレーションとハイエンドのハードウェアアクセラレーションが必要となる。
同時に、スマートシティや自動運転車のようなユースケースでは、固定カメラからの画像をリアルタイムで自動分析する必要がある。
これらのストリームが生成するネットワーク帯域幅は巨大で一定なので、コンピュートをomnipresentおよびomnipotentクラウドにオフロードすることはできません。
したがって、分散エッジクラウドは、ローカルでイメージを処理する責任を負う必要がある。
しかし、Edge Cloudは本質的にリソースの制約を受けており、エッジで実行されるモデルの計算複雑性に制限がある。
それでも、Edge Cloudと正確なリアルタイムビデオ分析との間には、ミーティングポイントが必要である。
本稿では,自動モデル特殊化による余分な計算コストを伴わないエッジモデルの精度向上手法を提案する。
まず,静的カメラの唯一の仮定が,問題のスコープを大幅に単純化する一連の考察を可能にしていることを示す。
次に、モデルのエンドツーエンドの微調整を自動化するためにこれらの考慮事項を実装し、まとめるフレームワークであるEdge AutoTunerを紹介します。
最後に、複雑なニューラルネットワークは、より良い一般化が可能で、教師として、軽量ニューラルネットワークの微調整のためのデータセットをアノテートし、特定のエッジコンテキストに合わせて調整することで、一定の計算コストで精度を向上し、人間のインタラクションを必要とせずに、効果的に使用できることを示します。
その結果,本手法は,事前学習モデルの精度を平均21%向上できることがわかった。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Predicting Long-horizon Futures by Conditioning on Geometry and Time [49.86180975196375]
我々は,過去を前提とした将来のセンサ観測の課題を探求する。
マルチモーダリティを扱える画像拡散モデルの大規模事前学習を活用する。
我々は、屋内と屋外のシーンにまたがる多様なビデオのセットについて、ビデオ予測のためのベンチマークを作成する。
論文 参考訳(メタデータ) (2024-04-17T16:56:31Z) - Streaming Video Analytics On The Edge With Asynchronous Cloud Support [2.7456483236562437]
本稿では,エッジとクラウドの予測を融合させ,低レイテンシで高精度なエッジクラウド融合アルゴリズムを提案する。
ビデオのオブジェクト検出(多くのビデオ分析シナリオに適用可能)に注目し、融合したエッジクラウド予測が、エッジのみのシナリオとクラウドのみのシナリオの精度を最大50%上回ることを示す。
論文 参考訳(メタデータ) (2022-10-04T06:22:13Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Large-Scale Video Analytics through Object-Level Consolidation [1.299941371793082]
ビデオ分析は、スマートシティや自動運転といった新しいユースケースを可能にする。
ビデオ分析は、スマートシティや自動運転といった新しいユースケースを可能にする。
論文 参考訳(メタデータ) (2021-11-30T14:48:54Z) - EffCNet: An Efficient CondenseNet for Image Classification on NXP
BlueBox [0.0]
エッジデバイスは、安価なハードウェアと限られた冷却と計算資源のために、限られた処理能力を提供する。
我々はエッジデバイスのためのEffCNetと呼ばれる新しいディープ畳み込みニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-11-28T21:32:31Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - Complexity-aware Adaptive Training and Inference for Edge-Cloud
Distributed AI Systems [9.273593723275544]
IoTおよび機械学習アプリケーションは、リアルタイム処理を必要とする大量のデータを生成する。
我々は、エッジとクラウドの両方を利用してトレーニングと推論を行う分散AIシステムを提案する。
論文 参考訳(メタデータ) (2021-09-14T05:03:54Z) - Glance and Focus: a Dynamic Approach to Reducing Spatial Redundancy in
Image Classification [46.885260723836865]
ディープ畳み込みニューラルネットワーク (Deep Convolutional Neural Network, CNN) は、高解像度画像で処理することで一般的に改善される。
画像中のすべての領域がタスク関連であるとは限らないという事実に着想を得て,効率的な画像分類を行う新しいフレームワークを提案する。
我々のフレームワークは、最先端の軽量CNNの多くと互換性があり、汎用的で柔軟です。
論文 参考訳(メタデータ) (2020-10-11T17:55:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。