論文の概要: NeuRaLaTeX: A machine learning library written in pure LaTeX
- arxiv url: http://arxiv.org/abs/2503.24187v1
- Date: Mon, 31 Mar 2025 15:05:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:34:08.042794
- Title: NeuRaLaTeX: A machine learning library written in pure LaTeX
- Title(参考訳): NeuRaTeX:純LaTeXで書かれた機械学習ライブラリ
- Authors: James A. D. Gardner, Will Rowan, William A. P. Smith,
- Abstract要約: 我々は,完全に韻律で書かれた最初のディープラーニングライブラリであるNeuRaLaを紹介する。
ドキュメントの一部として、ニューラルネットワークのアーキテクチャとその損失関数を指定することができる。
ドキュメントがコンパイルされると、コンパイラはトレーニングデータを生成し、ロードし、ネットワークをトレーニングし、実験を行い、図を生成する。
論文はコンパイルに48時間かかり、NeuRaLaのソースコード全体が論文のソースコードに含まれている。
- 参考スコア(独自算出の注目度): 15.978130916451295
- License:
- Abstract: In this paper, we introduce NeuRaLaTeX, which we believe to be the first deep learning library written entirely in LaTeX. As part of your LaTeX document you can specify the architecture of a neural network and its loss functions, define how to generate or load training data, and specify training hyperparameters and experiments. When the document is compiled, the LaTeX compiler will generate or load training data, train the network, run experiments, and generate figures. This paper generates a random 100 point spiral dataset, trains a two layer MLP on it, evaluates on a different random spiral dataset, produces plots and tables of results. The paper took 48 hours to compile and the entire source code for NeuRaLaTeX is contained within the source code of the paper. We propose two new metrics: the Written In Latex (WIL) metric measures the proportion of a machine learning library that is written in pure LaTeX, while the Source Code Of Method in Source Code of Paper (SCOMISCOP) metric measures the proportion of a paper's implementation that is contained within the paper source. We are state-of-the-art for both metrics, outperforming the ResNet and Transformer papers, as well as the PyTorch and Tensorflow libraries. Source code, documentation, videos, crypto scams and an invitation to invest in the commercialisation of NeuRaLaTeX are available at https://www.neuralatex.com
- Abstract(参考訳): 本稿では,LaTeXで書かれた最初のディープラーニングライブラリであるNeuRaTeXを紹介する。
LaTeXドキュメントの一部として、ニューラルネットワークとその損失関数のアーキテクチャを定義し、トレーニングデータの生成またはロード方法を定義し、トレーニングハイパーパラメータと実験を指定することができる。
ドキュメントがコンパイルされると、LaTeXコンパイラはトレーニングデータを生成し、ロードし、ネットワークをトレーニングし、実験を行い、数字を生成する。
本稿では,ランダムな100点スパイラルデータセットを生成し,その上に2層MDPをトレーニングし,異なるランダムなスパイラルデータセットを用いて評価し,プロットと結果表を生成する。
論文はコンパイルに48時間かかり、NeuRaLaTeXのソースコード全体が論文のソースコードに含まれている。
The Written In Latex (WIL) metric measure of a machine learning library that written in pure LaTeX, the Source Code Of Method in Source Code of Paper (SCOMISCOP) metric measure the proportion of a paper's implementation that are included in the paper source。
どちらも最先端のメトリクスで、ResNetとTransformerの論文、PyTorchとTensorflowのライブラリよりも優れています。
ソースコード、ドキュメンテーション、ビデオ、暗号詐欺、NeuRaTeXの商用化に投資する招待状はhttps://www.neuralatex.comで入手できる。
関連論文リスト
- LATTE: Improving Latex Recognition for Tables and Formulae with Iterative Refinement [11.931911831112357]
ソースとレンダリングされたPDF画像は、特に公式やテーブルでは、大きく異なるように見える。
以前の作業は、単一のイテレーションでソースを生成し、複雑な公式に苦労する。
本稿では,認識のための最初の反復的改良フレームワークであるLATTEを提案する。
論文 参考訳(メタデータ) (2024-09-21T17:18:49Z) - TeXBLEU: Automatic Metric for Evaluate LaTeX Format [4.337656290539519]
我々は,n-gram-based BLEU で構築した形式を用いて,数式評価のための指標 BLEU を提案する。
提案したBLEUは、arXiv紙のデータセットに基づいて訓練されたトークン化器と、位置エンコーディングによる微調整された埋め込みモデルから構成される。
論文 参考訳(メタデータ) (2024-09-10T16:54:32Z) - Neural network learns low-dimensional polynomials with SGD near the information-theoretic limit [75.4661041626338]
単一インデックス対象関数 $f_*(boldsymbolx) = textstylesigma_*left(langleboldsymbolx,boldsymbolthetarangleright)$ の勾配勾配勾配学習問題について検討する。
SGDに基づくアルゴリズムにより最適化された2層ニューラルネットワークは、情報指数に支配されない複雑さで$f_*$を学習する。
論文 参考訳(メタデータ) (2024-06-03T17:56:58Z) - Transformer In-Context Learning for Categorical Data [51.23121284812406]
我々は、分類結果、非線形基礎モデル、非線形注意を考慮し、文脈内学習のレンズを通してトランスフォーマーを理解する研究を機能データで拡張する。
我々は、ImageNetデータセットを用いて、この数発の学習方法論の最初の実世界の実演であると考えられるものを提示する。
論文 参考訳(メタデータ) (2024-05-27T15:03:21Z) - MathNet: A Data-Centric Approach for Printed Mathematical Expression Recognition [2.325171167252542]
ベンチマークデータセットim2latex-100kの改良版を提示し,30フォントを特徴とする。
第2に,論文からMEを抽出した実世界のデータセット realFormula を紹介する。
第3に、畳み込み視覚変換器をベースとしたMERモデルMathNetを開発し、4つのテストセットすべてにおいて優れた結果を得た。
論文 参考訳(メタデータ) (2024-04-21T14:03:34Z) - TopoX: A Suite of Python Packages for Machine Learning on Topological Domains [89.43928198132942]
TopoXはPythonのソフトウェアスイートで、トポロジ上のコンピューティングと機械学習のための信頼性とユーザフレンドリなビルディングブロックを提供する。
TopoXは、TopoNetX、TopoEmbedX、TopoModelXの3つのパッケージで構成されている。
論文 参考訳(メタデータ) (2024-02-04T10:41:40Z) - DocCoder: Generating Code by Retrieving and Reading Docs [87.88474546826913]
コードマニュアルとドキュメントを明示的に活用するアプローチであるDocCoderを紹介します。
我々のアプローチは一般的に、どんなプログラミング言語にも適用でき、基礎となるニューラルモデルとは無関係です。
論文 参考訳(メタデータ) (2022-07-13T06:47:51Z) - Scaling Up Models and Data with $\texttt{t5x}$ and $\texttt{seqio}$ [118.04625413322827]
$texttt5x$と$texttseqio$は、言語モデルの構築とトレーニングのためのオープンソースのソフトウェアライブラリである。
これらのライブラリは、複数のテラバイトのトレーニングデータを持つデータセット上で、数十億のパラメータを持つモデルをトレーニングするために使用されています。
論文 参考訳(メタデータ) (2022-03-31T17:12:13Z) - Efficient Graph Deep Learning in TensorFlow with tf_geometric [53.237754811019464]
グラフ深層学習のための効率的でフレンドリなライブラリであるtf_geometricを導入する。
tf_geometricは、人気のあるGNNの実装と同様に、グラフニューラルネットワーク(GNN)を構築するためのカーネルライブラリを提供する。
カーネルライブラリは、グラフデータ構造、グラフマップ-リデュースフレームワーク、グラフミニバッチ戦略など、効率的なGNNを構築するためのインフラストラクチャで構成されている。
論文 参考訳(メタデータ) (2021-01-27T17:16:36Z) - Machine Translation of Mathematical Text [0.0]
数学的テキストを含む文書を対象とした機械翻訳システムPolyMath Translatorを実装した。
現在の実装は英語をフランス語に翻訳し、数学文の保留テストコーパスでBLEUスコアが53.5に達した。
さらに編集することなくPDFにコンパイルできる文書を生成する。
論文 参考訳(メタデータ) (2020-10-11T11:59:40Z) - Reproducible Science with LaTeX [4.09920839425892]
本稿では,文書から外部ソースコードを実行する手順を提案する。
結果のPortable Document Format (pdf)ファイルに自動的に計算出力が含まれている。
論文 参考訳(メタデータ) (2020-10-04T04:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。