論文の概要: MiniTensor: A Lightweight, High-Performance Tensor Operations Library
- arxiv url: http://arxiv.org/abs/2602.00125v1
- Date: Tue, 27 Jan 2026 21:21:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:32.958989
- Title: MiniTensor: A Lightweight, High-Performance Tensor Operations Library
- Title(参考訳): MiniTensor:軽量で高性能なテンソル操作ライブラリ
- Authors: Soumyadip Sarkar,
- Abstract要約: MiniTensorは、計算、正確性、パフォーマンスに焦点を当てたオープンソースのライブラリである。
MiniTensorは、Rustエンジンでパフォーマンスクリティカルコードを実行する間、慣れ親しんだPyTorchのようなPython APIを公開する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present MiniTensor, an open source tensor operations library that focuses on minimalism, correctness, and performance. MiniTensor exposes a familiar PyTorch-like Python API while it executes performance critical code in a Rust engine. The core supports dense $n$ dimensional tensors, broadcasting, reductions, matrix multiplication, reverse mode automatic differentiation, a compact set of neural network layers, and standard optimizers. In this paper, we describe the design of MiniTensor's architecture, including its efficient memory management, dynamic computation graph for gradients, and integration with Python via PyO3. We also compare the install footprint with PyTorch and TensorFlow to demonstrate that MiniTensor achieves a package size of only a few megabytes, several orders of magnitude smaller than mainstream frameworks, while preserving the essentials needed for research and development on CPUs. The repository can be found at https://github.com/neuralsorcerer/minitensor
- Abstract(参考訳): ミニテソル(MiniTensor)は、ミニマリズム、正確性、パフォーマンスに焦点を当てたオープンソースのテンソル演算ライブラリである。
MiniTensorは、Rustエンジンでパフォーマンスクリティカルコードを実行する間、慣れ親しんだPyTorchのようなPython APIを公開する。
コアは高密度な$n$の次元テンソル、ブロードキャスト、リダクション、行列乗算、リバースモード自動微分、ニューラルネットワーク層のコンパクトなセット、標準オプティマイザをサポートする。
本稿では,その効率的なメモリ管理,勾配の動的計算グラフ,PythonとのPyO3による統合など,MiniTensorアーキテクチャの設計について述べる。
また、インストールのフットプリントをPyTorchとTensorFlowを比較して、MiniTensorが数メガバイトのパッケージサイズで、メインストリームフレームワークよりも桁違いに小さく、CPUの研究や開発に必要な必須事項を保っていることを実証しています。
リポジトリはhttps://github.com/neur alsorcerer/minitensorにある。
関連論文リスト
- Comgra: A Tool for Analyzing and Debugging Neural Networks [35.89730807984949]
PyTorchで使用するオープンソースのpythonライブラリであるcomgraを紹介します。
Comgraはモデルの内部アクティベーションに関するデータを抽出し、GUIで整理する。
要約統計と個々のデータポイントの両方を示し、トレーニングの初期段階と後期を比較し、関心のある個々のサンプルに注目し、ネットワークを通しての勾配の流れを可視化する。
論文 参考訳(メタデータ) (2024-07-31T14:57:23Z) - Nerva: a Truly Sparse Implementation of Neural Networks [16.29955529463831]
Nervaは、C++で開発中の高速ニューラルネットワークライブラリである。
IntelのMath Kernel Libraryのスパースマトリックス操作を使用することで、スパシティをサポートする。
論文 参考訳(メタデータ) (2024-07-24T17:13:31Z) - TensorKrowch: Smooth integration of tensor networks in machine learning [46.0920431279359]
PyTorch上に構築されたオープンソースのPythonライブラリであるKrowchを紹介します。
ユーザは任意のテンソルネットワークを構築してトレーニングし、より複雑なディープラーニングモデルにレイヤとして統合することができる。
論文 参考訳(メタデータ) (2023-06-14T15:55:19Z) - PyGOD: A Python Library for Graph Outlier Detection [56.33769221859135]
PyGODは、グラフデータの外れ値を検出するオープンソースライブラリである。
外れ値検出のための主要なグラフベースのメソッドを幅広くサポートしています。
PyGODはBSD 2-Clauseライセンスの下でhttps://pygod.orgとPython Package Index (PyPI)でリリースされている。
論文 参考訳(メタデータ) (2022-04-26T06:15:21Z) - PyTorchVideo: A Deep Learning Library for Video Understanding [71.89124881732015]
PyTorchVideoは、ビデオ理解タスクのためのオープンソースのディープラーニングライブラリである。
マルチモーダルデータローディング、変換、モデルを含む、ビデオ理解ツールのフルスタックをカバーする。
ライブラリはPyTorchをベースにしており、任意のトレーニングフレームワークで使用することができる。
論文 参考訳(メタデータ) (2021-11-18T18:59:58Z) - Efficient Graph Deep Learning in TensorFlow with tf_geometric [53.237754811019464]
グラフ深層学習のための効率的でフレンドリなライブラリであるtf_geometricを導入する。
tf_geometricは、人気のあるGNNの実装と同様に、グラフニューラルネットワーク(GNN)を構築するためのカーネルライブラリを提供する。
カーネルライブラリは、グラフデータ構造、グラフマップ-リデュースフレームワーク、グラフミニバッチ戦略など、効率的なGNNを構築するためのインフラストラクチャで構成されている。
論文 参考訳(メタデータ) (2021-01-27T17:16:36Z) - TensorX: Extensible API for Neural Network Model Design and Deployment [0.0]
TensorFlowXは、計算における複雑なニューラルネットワークモデルのプロトタイピング、設計、デプロイのためのPythonライブラリである。
使いやすさ、パフォーマンス、APIの一貫性に特に重点を置いています。
論文 参考訳(メタデータ) (2020-12-29T00:15:38Z) - Kernel Operations on the GPU, with Autodiff, without Memory Overflows [5.669790037378094]
KeOpsライブラリは、数学的公式によってエントリが与えられるテンソルに対して、高速でメモリ効率のよいGPUサポートを提供する。
KeOpsは、カーネルおよび幾何学的アプリケーションのためのテンソル中心ライブラリの大きなボトルネックであるメモリ消費を緩和する。
KeOpsは、最適化されたC++/CUDAスキームと、Python(NumpyとPyTorch)、Matlab、Rのバインダーを組み合わせる。
論文 参考訳(メタデータ) (2020-03-27T08:54:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。