論文の概要: Deeplite Neutrino: An End-to-End Framework for Constrained Deep Learning
Model Optimization
- arxiv url: http://arxiv.org/abs/2101.04073v2
- Date: Wed, 13 Jan 2021 14:57:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 14:51:14.607568
- Title: Deeplite Neutrino: An End-to-End Framework for Constrained Deep Learning
Model Optimization
- Title(参考訳): Deeplite Neutrino: 制約付きディープラーニングモデル最適化のためのエンドツーエンドフレームワーク
- Authors: Anush Sankaran, Olivier Mastropietro, Ehsan Saboori, Yasser Idris,
Davis Sawyer, MohammadHossein AskariHemmat, Ghouthi Boukli Hacene
- Abstract要約: ディープラーニングモデルのプロダクション対応最適化のためのブラックボックスフレームワークであるDeeplite Neutrinoを導入する。
フレームワークは既存のプロダクションパイプラインに簡単に組み込むことができ、Python Packageとして利用できる。
フレームワークは現在本番環境で使用されており、いくつかのクライアントによる結果と証言が要約されている。
- 参考スコア(独自算出の注目度): 2.762905634186996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing deep learning-based solutions is becoming a race for training
deeper models with a greater number of layers. While a large-size deeper model
could provide competitive accuracy, it creates a lot of logistical challenges
and unreasonable resource requirements during development and deployment. This
has been one of the key reasons for deep learning models not being excessively
used in various production environments, especially in edge devices. There is
an immediate requirement for optimizing and compressing these deep learning
models, to enable on-device intelligence. In this research, we introduce a
black-box framework, Deeplite Neutrino for production-ready optimization of
deep learning models. The framework provides an easy mechanism for the
end-users to provide constraints such as a tolerable drop in accuracy or target
size of the optimized models, to guide the whole optimization process. The
framework is easy to include in an existing production pipeline and is
available as a Python Package, supporting PyTorch and Tensorflow libraries. The
optimization performance of the framework is shown across multiple benchmark
datasets and popular deep learning models. Further, the framework is currently
used in production and the results and testimonials from several clients are
summarized.
- Abstract(参考訳): ディープラーニングベースのソリューションの設計は、より多くのレイヤを持つより深いモデルをトレーニングするためのレースになりつつある。
大規模な深層モデルは、競合の正確さをもたらす可能性があるが、開発とデプロイメントの間に多くのロジスティックな課題と不合理なリソース要件を生み出している。
これは、ディープラーニングモデルがさまざまなプロダクション環境、特にエッジデバイスで過剰に使われていない主な理由の1つです。
デバイス上のインテリジェンスを実現するために、これらのディープラーニングモデルを最適化し、圧縮する必要がある。
本研究では,ディープラーニングモデルのプロダクション対応最適化のためのブラックボックスフレームワークであるDeeplite Neutrinoを紹介する。
このフレームワークは、最適化されたモデルの精度の低下やターゲットサイズなどの制約をエンドユーザが簡単に提供し、最適化プロセス全体をガイドするメカニズムを提供する。
フレームワークは既存のプロダクションパイプラインに簡単に組み込むことができ、Python Packageとして利用可能で、PyTorchとTensorflowライブラリをサポートする。
フレームワークの最適化性能は、複数のベンチマークデータセットと人気のあるディープラーニングモデルで示されている。
さらに、このフレームワークは現在本番環境で使用されており、いくつかのクライアントによる結果と証言が要約されている。
関連論文リスト
- Wolf2Pack: The AutoFusion Framework for Dynamic Parameter Fusion [4.164728134421114]
我々は,事前学習されたチェックポイントを使わずに,マルチタスク学習のための異なるモデルパラメータを融合するフレームワークであるAutoFusionを紹介する。
我々は、よく使われるベンチマークデータセットの実験を通してAutoFusionの有効性を検証する。
私たちのフレームワークは、モデル統合のためのスケーラブルで柔軟なソリューションを提供し、将来の研究および実用的なアプリケーションのための強力なツールとして位置づけています。
論文 参考訳(メタデータ) (2024-10-08T07:21:24Z) - MALPOLON: A Framework for Deep Species Distribution Modeling [3.1457219084519004]
MALPOLONは深部種分布モデル(deep-SDM)の訓練と推測を容易にすることを目的としている
Pythonで書かれ、PyTorchライブラリ上に構築されている。
このフレームワークはGitHubとPyPiでオープンソース化されている。
論文 参考訳(メタデータ) (2024-09-26T17:45:10Z) - Leveraging Reinforcement Learning and Large Language Models for Code
Optimization [14.602997316032706]
本稿では,コード最適化の複雑さを低減するための新しいフレームワークを提案する。
提案するフレームワークは,大規模言語モデル(LLM)と強化学習(RL)に基づく。
我々は,新しい強化学習アルゴリズムであるCodeT5言語モデルとRRHFを用いて,PIEデータセット上でいくつかの実験を行った。
論文 参考訳(メタデータ) (2023-12-09T19:50:23Z) - CoLLiE: Collaborative Training of Large Language Models in an Efficient
Way [59.09824823710863]
CoLLiEは、大規模な言語モデルの協調トレーニングを容易にする効率的なライブラリである。
モジュール設計と包括的な機能により、CoLLiEは効率性、使いやすさ、カスタマイズのバランスのとれたブレンドを提供する。
論文 参考訳(メタデータ) (2023-12-01T08:02:16Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - Data Summarization via Bilevel Optimization [48.89977988203108]
シンプルだが強力なアプローチは、小さなサブセットのデータを操作することだ。
本研究では,コアセット選択を基数制約付き双レベル最適化問題として定式化する汎用コアセットフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-26T09:08:38Z) - Top-KAST: Top-K Always Sparse Training [50.05611544535801]
トレーニングを通して一定間隔を保存するTop-KASTを提案する。
確立したImageNetベンチマークのトレーニングモデルでは,従来の作業と同等かそれ以上に動作可能であることを示す。
ImageNetの結果に加えて、言語モデリングの分野においても、我々のアプローチを実証しています。
論文 参考訳(メタデータ) (2021-06-07T11:13:05Z) - Conditional Generative Modeling via Learning the Latent Space [54.620761775441046]
マルチモーダル空間における条件生成のための新しい枠組みを提案する。
潜在変数を使って一般化可能な学習パターンをモデル化する。
推論では、潜伏変数は複数の出力モードに対応する最適解を見つけるために最適化される。
論文 参考訳(メタデータ) (2020-10-07T03:11:34Z) - Coresets via Bilevel Optimization for Continual Learning and Streaming [86.67190358712064]
濃度制約付き二レベル最適化による新しいコアセット構成を提案する。
我々のフレームワークがディープニューラルネットワークのコアセットを効率的に生成できることを示し、連続学習やストリーミング設定における経験的メリットを示す。
論文 参考訳(メタデータ) (2020-06-06T14:20:25Z) - Deep-n-Cheap: An Automated Search Framework for Low Complexity Deep
Learning [3.479254848034425]
私たちはディープラーニングモデルを探すためのオープンソースのAutoMLフレームワークであるDeep-n-Cheapを紹介します。
私たちのフレームワークは、ベンチマークとカスタムデータセットの両方へのデプロイをターゲットとしています。
Deep-n-Cheapには、トレーニング時間やパラメータ数とパフォーマンスをトレードオフする、ユーザ管理可能な複雑性ペナルティが含まれている。
論文 参考訳(メタデータ) (2020-03-27T13:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。