論文の概要: DNN-Driven Compressive Offloading for Edge-Assisted Semantic Video
Segmentation
- arxiv url: http://arxiv.org/abs/2203.14481v1
- Date: Mon, 28 Mar 2022 03:49:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 07:42:26.639976
- Title: DNN-Driven Compressive Offloading for Edge-Assisted Semantic Video
Segmentation
- Title(参考訳): エッジ支援セマンティックビデオセグメンテーションのためのDNN駆動圧縮オフロード
- Authors: Xuedou Xiao, Juecheng Zhang, Wei Wang, Jianhua He, Qian Zhang
- Abstract要約: 本稿では,エッジ支援セマンティックセグメンテーションに適した一様圧縮方式STACを提案する。
現状のアルゴリズムと比較して,STACは精度を損なうことなく最大20.95%の帯域幅を節約できることを示す。
- 参考スコア(独自算出の注目度): 7.9955920576321615
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep learning has shown impressive performance in semantic segmentation, but
it is still unaffordable for resource-constrained mobile devices. While
offloading computation tasks is promising, the high traffic demands overwhelm
the limited bandwidth. Existing compression algorithms are not fit for semantic
segmentation, as the lack of obvious and concentrated regions of interest
(RoIs) forces the adoption of uniform compression strategies, leading to low
compression ratios or accuracy. This paper introduces STAC, a DNN-driven
compression scheme tailored for edge-assisted semantic video segmentation. STAC
is the first to exploit DNN's gradients as spatial sensitivity metrics for
spatial adaptive compression and achieves superior compression ratio and
accuracy. Yet, it is challenging to adapt this content-customized compression
to videos. Practical issues include varying spatial sensitivity and huge
bandwidth consumption for compression strategy feedback and offloading. We
tackle these issues through a spatiotemporal adaptive scheme, which (1) takes
partial strategy generation operations offline to reduce communication load,
and (2) propagates compression strategies and segmentation results across
frames through dense optical flow, and adaptively offloads keyframes to
accommodate video content. We implement STAC on a commodity mobile device.
Experiments show that STAC can save up to 20.95% of bandwidth without losing
accuracy, compared to the state-of-the-art algorithm.
- Abstract(参考訳): ディープラーニングはセマンティックセグメンテーションにおいて素晴らしいパフォーマンスを示しているが、それでもリソース制約のあるモバイルデバイスでは不十分である。
計算タスクのオフロードは有望だが、高いトラフィック要求は限られた帯域幅を超過する。
既存の圧縮アルゴリズムはセマンティックセグメンテーションには適さないが、明らかで集中的な関心領域(RoI)の欠如により、一様圧縮戦略の採用を余儀なくされ、圧縮率や精度が低下する。
本稿では、エッジ支援セマンティックビデオセグメンテーションに適したDNN駆動圧縮スキームSTACを紹介する。
STACは空間適応圧縮のための空間感度指標としてDNNの勾配を初めて利用し、より優れた圧縮比と精度を実現する。
しかし、このコンテンツに基づく圧縮をビデオに適用することは困難である。
実際の問題は、圧縮戦略のフィードバックとオフロードのための空間感度の変化と帯域消費の増大である。
そこで本稿では,(1)部分的戦略生成操作をオフラインで行ない,コミュニケーション負荷を低減し,(2)密集した光フローによるフレーム間の圧縮戦略とセグメント化結果を伝達し,映像コンテンツに適応的にキーフレームをオフロードする時空間適応方式を提案する。
商品用モバイルデバイスにSTACを実装した。
実験の結果、STACは最先端のアルゴリズムと比較して、精度を損なうことなく最大20.95%の帯域幅を節約できることがわかった。
関連論文リスト
- LoRC: Low-Rank Compression for LLMs KV Cache with a Progressive Compression Strategy [59.1298692559785]
キーバリュー(KV)キャッシュは、トランスフォーマーベースの自己回帰型大言語モデル(LLM)を提供する上で重要なコンポーネントである。
この問題を緩和するためのアプローチとしては、(1) アップサイクルステージに統合された効率的な注意変動、(2) テスト時のKVキャッシュ圧縮、(3) テスト時のKVキャッシュ圧縮がある。
そこで我々は,KV重み行列の低ランク近似を提案し,モデル再学習なしに既存のトランスフォーマーベースLCMとのプラグイン統合を実現する。
本手法は,テスト段階におけるアップサイクリング段階のモデルチューニングやタスク固有のプロファイリングを伴わずに機能するように設計されている。
論文 参考訳(メタデータ) (2024-10-04T03:10:53Z) - Accelerating Learned Video Compression via Low-Resolution Representation Learning [18.399027308582596]
低解像度表現学習に焦点を当てた学習ビデオ圧縮のための効率最適化フレームワークを提案する。
提案手法は,H.266参照ソフトウェアVTMの低遅延P構成と同等の性能を実現する。
論文 参考訳(メタデータ) (2024-07-23T12:02:57Z) - Efficient Semantic Segmentation by Altering Resolutions for Compressed
Videos [42.944135041061166]
本稿では,効率的な映像分割を実現するために,圧縮ビデオのためのAR-Segと呼ばれる修正解像度フレームワークを提案する。
AR-Segは、非キーフレームに対して低解像度を使用することで、計算コストを削減することを目的としている。
CamVidとCityscapesの実験によると、AR-Segは最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-03-13T15:58:15Z) - FrankenSplit: Efficient Neural Feature Compression with Shallow Variational Bottleneck Injection for Mobile Edge Computing [5.815300670677979]
資源依存型圧縮モデルのための新しいフレームワークを導入し,非対称環境下での手法を広範囲に評価する。
提案手法は精度を低下させることなく最先端のSC法よりも60%低く,既存の標準のオフロードよりも16倍高速である。
論文 参考訳(メタデータ) (2023-02-21T14:03:22Z) - Deep Lossy Plus Residual Coding for Lossless and Near-lossless Image
Compression [85.93207826513192]
本稿では、損失のない画像圧縮とほぼロスレス画像圧縮の両面において、統合された強力な深い損失+残差(DLPR)符号化フレームワークを提案する。
VAEのアプローチにおける連立損失と残留圧縮の問題を解く。
ほぼロスレスモードでは、元の残差を量子化し、与えられた$ell_infty$エラー境界を満たす。
論文 参考訳(メタデータ) (2022-09-11T12:11:56Z) - Cross Modal Compression: Towards Human-comprehensible Semantic
Compression [73.89616626853913]
クロスモーダル圧縮は、視覚データのためのセマンティック圧縮フレームワークである。
提案したCMCは,超高圧縮比で再現性の向上が期待できることを示す。
論文 参考訳(メタデータ) (2022-09-06T15:31:11Z) - Learned Video Compression via Heterogeneous Deformable Compensation
Network [78.72508633457392]
不安定な圧縮性能の問題に対処するために,不均一変形補償戦略(HDCVC)を用いた学習ビデオ圧縮フレームワークを提案する。
より具体的には、提案アルゴリズムは隣接する2つのフレームから特徴を抽出し、コンテンツ近傍の不均一な変形(HetDeform)カーネルオフセットを推定する。
実験結果から,HDCVCは最近の最先端の学習ビデオ圧縮手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-11T02:31:31Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z) - Content Adaptive and Error Propagation Aware Deep Video Compression [110.31693187153084]
本稿では,コンテンツ適応型・誤り伝搬対応型ビデオ圧縮システムを提案する。
本手法では, 複数フレームの圧縮性能を1フレームではなく複数フレームで考慮し, 共同学習手法を用いる。
従来の圧縮システムでは手作りのコーディングモードを使用する代わりに,オンラインエンコーダ更新方式をシステム内に設計する。
論文 参考訳(メタデータ) (2020-03-25T09:04:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。