論文の概要: TinyTorch: Building Machine Learning Systems from First Principles
- arxiv url: http://arxiv.org/abs/2601.19107v1
- Date: Tue, 27 Jan 2026 02:18:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.131654
- Title: TinyTorch: Building Machine Learning Systems from First Principles
- Title(参考訳): TinyTorch: 第一原理から機械学習システムを構築する
- Authors: Vijay Janapa Reddi,
- Abstract要約: 学生がPyTorchのコアコンポーネントを実装するための20のモジュールカリキュラムであるTinyTorchを紹介します。
カリキュラムは3つの教育原理に基づいて構築され、学生が自信を築くにつれて、進歩的開示は徐々に複雑化していく。
TinyTorchは4GBのRAMとGPUのないラップトップしか必要としない。
- 参考スコア(独自算出の注目度): 7.557409593010283
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning systems engineering requires a deep understanding of framework internals. Yet most current education separates algorithms from systems. Students learn gradient descent without measuring memory usage, and attention mechanisms without profiling computational cost. This split leaves graduates unprepared to debug real production failures and widens the gap between machine learning research and reliable deployment. We present TinyTorch, a 20 module curriculum in which students implement the core components of PyTorch, including tensors, autograd, optimizers, and neural networks, entirely in pure Python. The curriculum is built around three pedagogical principles. Progressive disclosure gradually introduces complexity as students build confidence. Systems first integration embeds memory and performance awareness from the very beginning. Historical milestone validation guides students to recreate key breakthroughs, from the Perceptron in 1958 to modern Transformers, using only code they have written themselves. TinyTorch requires only a laptop with 4GB of RAM and no GPU, making machine learning systems education accessible worldwide. Its goal is to prepare the next generation of AI engineers, practitioners who understand not only what machine learning systems do, but why they work and how to make them scale. The curriculum is available as open source at mlsysbook.ai slash tinytorch.
- Abstract(参考訳): 機械学習システムエンジニアリングは、フレームワークの内部を深く理解する必要がある。
しかし、現在の教育はアルゴリズムをシステムから切り離している。
学生は、メモリ使用量を測定することなく勾配降下を学習し、計算コストをプロファイリングせずに注意機構を学習する。
この分割は、卒業生が実際の運用失敗をデバッグし、マシンラーニングの研究と信頼性の高いデプロイメントの間のギャップを広げる準備が整っていないことを残します。
TinyTorchは、学生がテンソル、オートグレード、オプティマイザ、ニューラルネットワークを含むPyTorchのコアコンポーネントを純粋にPythonで実装する20のモジュールカリキュラムである。
カリキュラムは3つの教育原則に基づいて構築されている。
プログレッシブ開示は、学生が自信を築くにつれて、徐々に複雑化する。
システムファーストインテグレーションは、最初からメモリとパフォーマンスの意識を埋め込んだものです。
歴史的マイルストーンの検証は、1958年のパーセプトロンから現代のトランスフォーマーまで、自分たちで書いたコードのみを使って、重要なブレークスルーを再現するよう学生に促している。
TinyTorchは4GBのRAMとGPUのないラップトップしか必要としない。
その目標は、次世代のAIエンジニアや実践者が、機械学習システムが何をしているかだけでなく、なぜ機能するのか、どのようにスケールさせるのかを理解できるようにすることだ。
カリキュラムはmlsysbook.ai slash littletorchでオープンソースとして公開されている。
関連論文リスト
- Teaching Machine Learning Fundamentals with LEGO Robotics [6.474217812459663]
本稿では,Bricksを用いたWebベースの機械学習プラットフォームと,12~17歳の生徒に機械学習の概念を教えるための2日間のコースについて述べる。
Machine Learning with Bricksはオープンソースのプラットフォームで、インタラクティブな視覚化とLEGOロボティクスを組み合わせて、KNN、線形回帰、Qラーニングという3つのコアアルゴリズムを教える。
学生は、データを収集し、モデルを訓練し、Webベースのインターフェイスを介してロボットと対話することによって学ぶ。
論文 参考訳(メタデータ) (2026-01-27T08:59:57Z) - Quantum Machine Learning: A Hands-on Tutorial for Machine Learning Practitioners and Researchers [51.03113410951073]
このチュートリアルでは、AIのバックグラウンドを持つ読者を量子機械学習(QML)に紹介する。
自己整合性については、基本原理、代表的QMLアルゴリズム、潜在的な応用、トレーニング容易性、一般化、計算複雑性といった重要な側面を取り上げる。
論文 参考訳(メタデータ) (2025-02-03T08:33:44Z) - On-device Self-supervised Learning of Visual Perception Tasks aboard
Hardware-limited Nano-quadrotors [53.59319391812798]
SI50グラム以下のナノドロンは、学術と産業の両方で勢いを増している。
彼らの最も魅力的なアプリケーションは、知覚のためのディープラーニングモデルに依存している。
未知の環境にデプロイする場合、これらのモデルはドメインシフトによってパフォーマンスが低下することが多い。
本研究では,ナノドローンを用いたデバイス上での学習を初めて提案する。
論文 参考訳(メタデータ) (2024-03-06T22:04:14Z) - TensorKrowch: Smooth integration of tensor networks in machine learning [46.0920431279359]
PyTorch上に構築されたオープンソースのPythonライブラリであるKrowchを紹介します。
ユーザは任意のテンソルネットワークを構築してトレーニングし、より複雑なディープラーニングモデルにレイヤとして統合することができる。
論文 参考訳(メタデータ) (2023-06-14T15:55:19Z) - Preprocessors Matter! Realistic Decision-Based Attacks on Machine
Learning Systems [56.64374584117259]
決定に基づく攻撃は、ハードラベルクエリのみを作成することによって、機械学習(ML)モデルに対する逆例を構築する。
我々は,(i)プリプロセッサをリバースエンジニアリングし,(ii)この抽出した情報を用いてエンド・ツー・エンド・システムを攻撃する手法を開発した。
我々のプリプロセッサ抽出法は数百のクエリしか必要とせず、我々のプリプロセッサ・アウェア・アタックはモデルのみを攻撃する場合と同じ効果を回復する。
論文 参考訳(メタデータ) (2022-10-07T03:10:34Z) - Flashlight: Enabling Innovation in Tools for Machine Learning [50.63188263773778]
私たちは、機械学習ツールやシステムの革新を促進するために構築されたオープンソースのライブラリであるFlashlightを紹介します。
Flashlightは、広く使われているライブラリを下流で活用し、機械学習とシステム研究者をより緊密に連携させる研究を可能にするツールだと考えています。
論文 参考訳(メタデータ) (2022-01-29T01:03:29Z) - PyCIL: A Python Toolbox for Class-Incremental Learning [34.32500654158169]
クラス増分学習のためのいくつかの重要なアルゴリズムを実装したPythonツールボックスを提案する。
このツールボックスには、EWCやiCaRLといったCILの創設作業の実装が含まれている。
また、新しい基礎研究を行うために使用できる最先端のアルゴリズムも提供する。
論文 参考訳(メタデータ) (2021-12-23T13:41:24Z) - PyKale: Knowledge-Aware Machine Learning from Multiple Sources in Python [6.276936701568444]
Pykaleは、グラフ、画像、テキスト、ビデオに関する知識を意識した機械学習のためのPythonライブラリである。
我々は、標準的なソフトウェアエンジニアリングプラクティスに基づいて、新しいグリーン機械学習ガイドラインを定式化する。
私たちはPyTorch上にPyKaleを構築し、リッチなPyTorchエコシステムを活用しています。
論文 参考訳(メタデータ) (2021-06-17T18:35:37Z) - Ten Quick Tips for Deep Learning in Biology [116.78436313026478]
機械学習は、データのパターンを認識し、予測モデリングに使用するアルゴリズムの開発と応用に関係している。
ディープラーニングは、独自の機械学習のサブフィールドになっている。
生物学的研究の文脈において、ディープラーニングは高次元の生物学的データから新しい洞察を導き出すためにますます使われてきた。
論文 参考訳(メタデータ) (2021-05-29T21:02:44Z) - PeleNet: A Reservoir Computing Framework for Loihi [0.0]
PeleNetは、ニューロモルフィックハードウェアLoihiの貯水池コンピューティングを単純化することを目指している。
複数のコアやチップ上でのネットワークの自動的かつ効率的な分散を提供する。
論文 参考訳(メタデータ) (2020-11-24T19:33:08Z) - Machine Learning in Python: Main developments and technology trends in
data science, machine learning, and artificial intelligence [3.1314898234563295]
Pythonは科学計算、データサイエンス、機械学習において最も好まれる言語である。
この調査は、Pythonによる機械学習の分野に関する洞察を提供し、重要なトピックをツアーして、それを可能にしたコアハードウェアとソフトウェアパラダイムのいくつかを特定します。
論文 参考訳(メタデータ) (2020-02-12T05:20:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。