論文の概要: Progressive Transmission and Inference of Deep Learning Models
- arxiv url: http://arxiv.org/abs/2110.00916v1
- Date: Sun, 3 Oct 2021 03:32:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:26:21.451243
- Title: Progressive Transmission and Inference of Deep Learning Models
- Title(参考訳): 深層学習モデルの進歩的伝達と推論
- Authors: Youngsoo Lee, Sangdoo Yun, Yeonghun Kim, Sunghee Choi
- Abstract要約: 本稿では,ディープラーニングモデルのためのプログレッシブトランスミッションフレームワークを提案する。
提案手法は,特に遅い接続で近似モデルを提供することにより,ユーザエクスペリエンスを向上させることができる。
- 参考スコア(独自算出の注目度): 12.18459407221765
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Modern image files are usually progressively transmitted and provide a
preview before downloading the entire image for improved user experience to
cope with a slow network connection. In this paper, with a similar goal, we
propose a progressive transmission framework for deep learning models,
especially to deal with the scenario where pre-trained deep learning models are
transmitted from servers and executed at user devices (e.g., web browser or
mobile). Our progressive transmission allows inferring approximate models in
the middle of file delivery, and quickly provide an acceptable intermediate
outputs. On the server-side, a deep learning model is divided and progressively
transmitted to the user devices. Then, the divided pieces are progressively
concatenated to construct approximate models on user devices. Experiments show
that our method is computationally efficient without increasing the model size
and total transmission time while preserving the model accuracy. We further
demonstrate that our method can improve the user experience by providing the
approximate models especially in a slow connection.
- Abstract(参考訳): 現代の画像ファイルは通常、徐々に送信され、イメージ全体をダウンロードする前にプレビューを提供し、遅いネットワーク接続に対処するためにユーザーエクスペリエンスを改善した。
本稿では,同様の目的から,特にサーバから事前訓練されたディープラーニングモデルが送信され,ユーザデバイス(例えばwebブラウザやモバイル)で実行されるシナリオに対処するために,ディープラーニングモデルのためのプログレッシブトランスミッションフレームワークを提案する。
プログレッシブトランスミッションは,ファイル配信の途中で近似モデルを推定し,許容可能な中間出力を迅速に提供する。
サーバ側では、ディープラーニングモデルを分割してユーザデバイスに順次送信する。
そして、分割された部品を段階的に連結し、ユーザデバイス上で近似モデルを構築する。
実験の結果, モデル精度を維持しつつ, モデルサイズや送信時間を大きくすることなく, 計算効率が向上した。
さらに,提案手法は,特に遅い接続で近似モデルを提供することで,ユーザエクスペリエンスを向上させることができることを示す。
関連論文リスト
- A-SDM: Accelerating Stable Diffusion through Redundancy Removal and
Performance Optimization [54.113083217869516]
本研究ではまず,ネットワークの計算冗長性について検討する。
次に、モデルの冗長性ブロックをプルークし、ネットワーク性能を維持する。
第3に,計算集約型注意部を高速化するグローバル地域対話型注意(GRI)を提案する。
論文 参考訳(メタデータ) (2023-12-24T15:37:47Z) - Federated Topic Model and Model Pruning Based on Variational Autoencoder [14.737942599204064]
フェデレートされたトピックモデリングにより、複数のパーティがデータのプライバシを保護しながらモデルを共同でトレーニングできる。
本稿では,各ノードのプライバシを確保しつつ,フェデレートされたトピックモデルを確立する手法を提案し,ニューラルネットワークモデルプルーニングを用いてモデルを高速化する。
実験結果から,フェデレートされたトピックモデルプルーニングは,モデルの性能を確保しつつ,モデルのトレーニング速度を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-11-01T06:00:14Z) - How Well Do Sparse Imagenet Models Transfer? [75.98123173154605]
転送学習は、大規模な"上流"データセットで事前訓練されたモデルが、"下流"データセットで良い結果を得るために適応される古典的なパラダイムである。
本研究では、ImageNetデータセットでトレーニングされた畳み込みニューラルネットワーク(CNN)のコンテキストにおいて、この現象を詳細に調査する。
スパースモデルでは, 高空間であっても, 高密度モデルの転送性能にマッチしたり, 性能に優れることを示す。
論文 参考訳(メタデータ) (2021-11-26T11:58:51Z) - ViViT: A Video Vision Transformer [75.74690759089529]
ビデオ分類にpure-transformerベースのモデルを提案する。
本モデルでは,入力ビデオから時間トークンを抽出し,一連のトランスフォーマー層で符号化する。
トレーニング中にモデルを効果的に正規化し、トレーニング済みの画像モデルを利用して比較的小さなデータセットでトレーニングできることを示します。
論文 参考訳(メタデータ) (2021-03-29T15:27:17Z) - Visualising Deep Network's Time-Series Representations [93.73198973454944]
機械学習モデルの普及にもかかわらず、多くの場合、モデルの内部で起きていることに関する洞察のないブラックボックスとして運用される。
本稿では,多次元時系列データの可視化に着目し,この問題に対処する手法を提案する。
高周波在庫市場データセットの実験は、この方法が迅速かつ識別可能な可視化を提供することを示しています。
論文 参考訳(メタデータ) (2021-03-12T09:53:34Z) - A Plug-and-play Scheme to Adapt Image Saliency Deep Model for Video Data [54.198279280967185]
本稿では,ビデオデータに対して予め訓練された画像の鮮度深度モデルを弱めに再学習する新しいプラグイン・アンド・プレイ方式を提案する。
本手法は,既訓練画像の深度モデルに適応して高品質な映像の鮮度検出を実現するのに有効である。
論文 参考訳(メタデータ) (2020-08-02T13:23:14Z) - Do Adversarially Robust ImageNet Models Transfer Better? [102.09335596483695]
逆向きに堅牢なモデルは、トランスファーラーニングに使用する場合、標準訓練されたモデルよりもよく機能する。
私たちの結果は、ロバストさが機能表現の改善につながるという最近の仮説と一致しています。
論文 参考訳(メタデータ) (2020-07-16T17:42:40Z) - On the performance of deep learning models for time series
classification in streaming [0.0]
この研究は、データストリーミング分類のための様々なタイプのディープアーキテクチャのパフォーマンスを評価することである。
複数の時系列データセット上で,多層パーセプトロン,リカレント,畳み込み,時間的畳み込みニューラルネットワークなどのモデルを評価する。
論文 参考訳(メタデータ) (2020-03-05T11:41:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。