論文の概要: Continual Inference: A Library for Efficient Online Inference with Deep
Neural Networks in PyTorch
- arxiv url: http://arxiv.org/abs/2204.03418v1
- Date: Thu, 7 Apr 2022 13:03:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 14:12:16.876745
- Title: Continual Inference: A Library for Efficient Online Inference with Deep
Neural Networks in PyTorch
- Title(参考訳): 連続推論:pytorchのディープニューラルネットワークを用いた効率的なオンライン推論ライブラリ
- Authors: Lukas Hedegaard and Alexandros Iosifidis
- Abstract要約: Continual Inferenceは、PyTorchでContinuous Inference Networks(CIN)を実装するPythonライブラリである。
我々は、CINとその実装を包括的に紹介し、現代のディープラーニングのための複雑なモジュールを構成するためのベストプラクティスとコード例を提供します。
- 参考スコア(独自算出の注目度): 97.03321382630975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Continual Inference, a Python library for implementing Continual
Inference Networks (CINs) in PyTorch, a class of Neural Networks designed
specifically for efficient inference in both online and batch processing
scenarios. We offer a comprehensive introduction and guide to CINs and their
implementation in practice, and provide best-practices and code examples for
composing complex modules for modern Deep Learning. Continual Inference is
readily downloadable via the Python Package Index and at
\url{www.github.com/lukashedegaard/continual-inference}.
- Abstract(参考訳): 我々は、オンラインおよびバッチ処理シナリオの両方において効率的な推論のために設計されたニューラルネットワークのクラスであるpytorchに、continual inference network(cins)を実装するためのpythonライブラリであるcontinual inferenceを提案する。
我々は、CINとその実装を包括的に紹介およびガイドし、現代のディープラーニングのための複雑なモジュールを構成するためのベストプラクティスとコード例を提供します。
連続推論はPython Package Indexと \url{www.github.com/lukashedegaard/continual-inference}で簡単にダウンロードできる。
関連論文リスト
- MALPOLON: A Framework for Deep Species Distribution Modeling [3.1457219084519004]
MALPOLONは深部種分布モデル(deep-SDM)の訓練と推測を容易にすることを目的としている
Pythonで書かれ、PyTorchライブラリ上に構築されている。
このフレームワークはGitHubとPyPiでオープンソース化されている。
論文 参考訳(メタデータ) (2024-09-26T17:45:10Z) - pyvene: A Library for Understanding and Improving PyTorch Models via
Interventions [79.72930339711478]
$textbfpyvene$は、さまざまなPyTorchモジュールに対するカスタマイズ可能な介入をサポートするオープンソースライブラリである。
私たちは、$textbfpyvene$が、ニューラルモデルへの介入を実行し、他のモデルとインターバルされたモデルを共有するための統一されたフレームワークを提供する方法を示します。
論文 参考訳(メタデータ) (2024-03-12T16:46:54Z) - PyPOTS: A Python Toolbox for Data Mining on Partially-Observed Time
Series [0.0]
PyPOTSは、部分的に保存された時系列のデータマイニングと分析に特化した、オープンソースのPythonライブラリである。
これは、計算、分類、クラスタリング、予測の4つのタスクに分類される多様なアルゴリズムに容易にアクセスできる。
論文 参考訳(メタデータ) (2023-05-30T07:57:05Z) - SequeL: A Continual Learning Library in PyTorch and JAX [50.33956216274694]
SequeLは継続学習のためのライブラリで、PyTorchとJAXフレームワークの両方をサポートする。
それは、正規化ベースのアプローチ、リプレイベースのアプローチ、ハイブリッドアプローチを含む、幅広い連続学習アルゴリズムのための統一インターフェースを提供する。
私たちはSequeLをオープンソースライブラリとしてリリースし、研究者や開発者が自身の目的で簡単にライブラリを実験し拡張することができます。
論文 参考訳(メタデータ) (2023-04-21T10:00:22Z) - PARTIME: Scalable and Parallel Processing Over Time with Deep Neural
Networks [68.96484488899901]
PartIMEは、データが継続的にストリーミングされるたびにニューラルネットワークを高速化するように設計されたライブラリです。
PartIMEは、ストリームから利用可能になった時点で、各データサンプルの処理を開始する。
オンライン学習において、PartialIMEと古典的な非並列ニューラル計算を経験的に比較するために実験が行われる。
論文 参考訳(メタデータ) (2022-10-17T14:49:14Z) - TSFEDL: A Python Library for Time Series Spatio-Temporal Feature
Extraction and Prediction using Deep Learning (with Appendices on Detailed
Network Architectures and Experimental Cases of Study) [9.445070013080601]
TSFEライブラリは、AGPLv3ライセンスの下でflow+KerasとPyTorchモジュールのセット上に構築されている。
この提案に含まれるアーキテクチャのパフォーマンス検証は、このPythonパッケージの有用性を確認している。
論文 参考訳(メタデータ) (2022-06-07T10:58:33Z) - pymdp: A Python library for active inference in discrete state spaces [52.85819390191516]
pymdpはPythonでアクティブな推論をシミュレートするオープンソースパッケージである。
我々は,POMDPによるアクティブな推論をシミュレートする,最初のオープンソースパッケージを提供する。
論文 参考訳(メタデータ) (2022-01-11T12:18:44Z) - Using Python for Model Inference in Deep Learning [0.6027358520885614]
pythonで推論を実行しながら、パフォーマンスとパッケージングの制約を満たす方法を示します。
複数のPythonインタプリタを単一のプロセスで使用して,スケーラブルな推論を実現する方法を提案する。
論文 参考訳(メタデータ) (2021-04-01T04:48:52Z) - torchgpipe: On-the-fly Pipeline Parallelism for Training Giant Models [19.024035785367044]
我々は,GPipe によるチェックポインティングによるマイクロバッチパイプライン並列化を実現するために,PyTorch で用意されたライブラリを設計,実装した。
このような環境下でパイプライン並列性を完全に活用するには各コンポーネントが必要であることを示し、ライブラリの効率性を実証する。
論文 参考訳(メタデータ) (2020-04-21T11:27:00Z) - Neural Network Compression Framework for fast model inference [59.65531492759006]
我々は、ニューラルネットワーク圧縮フレームワーク(NNCF)と呼ばれる、微調整によるニューラルネットワーク圧縮のための新しいフレームワークを提案する。
様々なネットワーク圧縮手法の最近の進歩を活用し、空間性、量子化、双項化などのいくつかの実装を行っている。
フレームワークは、トレーニングサンプル内に提供され、あるいは既存のトレーニングコードにシームレスに統合可能なスタンドアロンパッケージとして使用することができる。
論文 参考訳(メタデータ) (2020-02-20T11:24:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。