論文の概要: Adopting Two Supervisors for Efficient Use of Large-Scale Remote Deep
Neural Networks
- arxiv url: http://arxiv.org/abs/2304.02654v1
- Date: Wed, 5 Apr 2023 04:35:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 16:41:07.177226
- Title: Adopting Two Supervisors for Efficient Use of Large-Scale Remote Deep
Neural Networks
- Title(参考訳): 大規模遠隔深層ニューラルネットワークの効率的利用のための2つのスーパーバイザの適用
- Authors: Michael Weiss and Paolo Tonella
- Abstract要約: 大規模ディープニューラルネットワーク(DNN)は、リソース制約されたデバイス上で効率的に動作するには大きすぎる。
そこで本研究では,システムを小規模局所モデルで予測しようとするBiSupervisedを提案する。
我々は,4種類のケーススタディにおいて,コスト削減と誤予測入力の検出能力を評価した。
- 参考スコア(独自算出の注目度): 4.987581730476023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent decades have seen the rise of large-scale Deep Neural Networks (DNNs)
to achieve human-competitive performance in a variety of artificial
intelligence tasks. Often consisting of hundreds of millions, if not hundreds
of billion parameters, these DNNs are too large to be deployed to, or
efficiently run on resource-constrained devices such as mobile phones or IoT
microcontrollers. Systems relying on large-scale DNNs thus have to call the
corresponding model over the network, leading to substantial costs for hosting
and running the large-scale remote model, costs which are often charged on a
per-use basis. In this paper, we propose BiSupervised, a novel architecture,
where, before relying on a large remote DNN, a system attempts to make a
prediction on a small-scale local model. A DNN supervisor monitors said
prediction process and identifies easy inputs for which the local prediction
can be trusted. For these inputs, the remote model does not have to be invoked,
thus saving costs, while only marginally impacting the overall system accuracy.
Our architecture furthermore foresees a second supervisor to monitor the remote
predictions and identify inputs for which not even these can be trusted,
allowing to raise an exception or run a fallback strategy instead. We evaluate
the cost savings, and the ability to detect incorrectly predicted inputs on
four diverse case studies: IMDB movie review sentiment classification, Github
issue triaging, Imagenet image classification, and SQuADv2 free-text question
answering
- Abstract(参考訳): 近年では、さまざまな人工知能タスクで人間の競争能力を達成するために、大規模ディープニューラルネットワーク(dnn)が台頭している。
数十億のパラメータではなく数十億のパラメータで構成されていることが多いが、これらのDNNは、携帯電話やIoTマイクロコントローラなどのリソースに制約のあるデバイスにデプロイしたり、効率的に動作するには大きすぎる。
したがって、大規模なDNNに依存するシステムは、ネットワーク上で対応するモデルを呼び出す必要があり、大規模なリモートモデルのホスティングと実行には相当なコストがかかる。
本稿では,大規模リモートDNNに頼らずに,小規模のローカルモデルで予測を行おうとする,新しいアーキテクチャであるBiSupervisedを提案する。
DNNスーパーバイザーは、その予測プロセスを監視し、ローカル予測を信頼できる簡単な入力を特定する。
これらの入力に対して、リモートモデルを呼び出す必要はなく、システム全体の精度にわずかな影響を与えながらコストを節約できる。
当社のアーキテクチャではさらに,リモート予測を監視し,これらを信頼できない入力を識別するために,第2のスーパーバイザを想定しています。
我々は,imdb movie review sentiment classification, github issue triaging, imagenet image classification, squadv2 free-text question answeringの4つのケーススタディにおいて,コスト削減と不正確な入力の検出能力を評価した。
関連論文リスト
- GhostRNN: Reducing State Redundancy in RNN with Cheap Operations [66.14054138609355]
本稿では,効率的なRNNアーキテクチャであるGhostRNNを提案する。
KWSとSEタスクの実験により、提案されたGhostRNNはメモリ使用量(40%)と計算コストを大幅に削減し、性能は類似している。
論文 参考訳(メタデータ) (2024-11-20T11:37:14Z) - EvSegSNN: Neuromorphic Semantic Segmentation for Event Data [0.6138671548064356]
EvSegSNN は、Parametric Leaky Integrate と Fire のニューロンに依存した、生物学的に検証可能なエンコーダ-デコーダU字型アーキテクチャである。
本稿では,スパイキングニューラルネットワークとイベントカメラを組み合わせることによって,エンド・ツー・エンドのバイオインスパイアされたセマンティックセマンティックセマンティクス手法を提案する。
DDD17で実施された実験は、EvSegSNNがMIoUの観点から最も近い最先端モデルを上回っていることを示している。
論文 参考訳(メタデータ) (2024-06-20T10:36:24Z) - CheapET-3: Cost-Efficient Use of Remote DNN Models [1.0660480034605242]
クライアントサイドアプリケーションのための新しいソフトウェアアーキテクチャを提案し、小さなローカルDNNがリモートの大規模モデルと一緒に使用される。
概念実証では,システム精度に悪影響を及ぼすことなく,予測コストを最大50%削減する。
論文 参考訳(メタデータ) (2022-08-24T13:54:27Z) - CondenseNeXt: An Ultra-Efficient Deep Neural Network for Embedded
Systems [0.0]
畳み込みニューラルネットワーク(英: Convolutional Neural Network, CNN)は、画像センサが捉えた視覚画像の分析に広く用いられているディープニューラルネットワーク(DNN)のクラスである。
本稿では,組込みシステム上でのリアルタイム推論のために,既存のCNNアーキテクチャの性能を改善するために,深層畳み込みニューラルネットワークアーキテクチャの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-12-01T18:20:52Z) - Pruning and Slicing Neural Networks using Formal Verification [0.2538209532048866]
ディープニューラルネットワーク(DNN)は、様々なコンピュータシステムにおいてますます重要な役割を担っている。
これらのネットワークを作成するために、エンジニアは通常、望ましいトポロジを指定し、自動トレーニングアルゴリズムを使用してネットワークの重みを選択する。
本稿では,近年のDNN検証の進歩を活用して,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2021-05-28T07:53:50Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - EagerNet: Early Predictions of Neural Networks for Computationally
Efficient Intrusion Detection [2.223733768286313]
最小限のリソースでネットワーク攻撃を検出するアーキテクチャを提案する。
アーキテクチャはバイナリまたはマルチクラスの分類問題に対処でき、ネットワークの精度を予測速度と交換できる。
論文 参考訳(メタデータ) (2020-07-27T11:31:37Z) - Making DensePose fast and light [78.49552144907513]
このタスクを解くことができる既存のニューラルネットワークモデルは、非常にパラメータ化されている。
現在のモデルで端末のDense Pose推論を有効にするには、高価なサーバーサイドのインフラをサポートし、安定したインターネット接続が必要である。
本研究では,DensePose R-CNNモデルのアーキテクチャを再設計することで,最終的なネットワークがその精度の大部分を維持しつつ,より軽量で高速なネットワークを実現することを目的とする。
論文 参考訳(メタデータ) (2020-06-26T19:42:20Z) - Neural Networks and Value at Risk [59.85784504799224]
リスクしきい値推定における資産価値のモンテカルロシミュレーションを行う。
株式市場と長期債を試験資産として利用し、ニューラルネットワークについて検討する。
はるかに少ないデータでフィードされたネットワークは、大幅にパフォーマンスが悪くなっています。
論文 参考訳(メタデータ) (2020-05-04T17:41:59Z) - Firearm Detection and Segmentation Using an Ensemble of Semantic Neural
Networks [62.997667081978825]
本稿では,意味的畳み込みニューラルネットワークのアンサンブルに基づく兵器検出システムを提案する。
特定のタスクに特化した単純なニューラルネットワークのセットは、計算リソースを少なくし、並列にトレーニングすることができる。
個々のネットワークの出力の集約によって与えられるシステムの全体的な出力は、ユーザが偽陽性と偽陰性とをトレードオフするように調整することができる。
論文 参考訳(メタデータ) (2020-02-11T13:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。