論文の概要: The Syntax and Semantics of einsum
- arxiv url: http://arxiv.org/abs/2509.20020v2
- Date: Mon, 06 Oct 2025 14:35:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 14:28:10.76183
- Title: The Syntax and Semantics of einsum
- Title(参考訳): einsumの構文と意味論
- Authors: Maurice Wenig, Paul G. Rump, Mark Blacher, Joachim Giesen,
- Abstract要約: einsumは2011年にテンソル表現の実用的で便利な表記法としてNumPyに導入された。
PyTorchや量子回路シミュレーションなどのPythonフレームワークや、Juliaなどの他のプログラミング言語でも実装されている。
- 参考スコア(独自算出の注目度): 10.59016338257286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In 2011, einsum was introduced to NumPy as a practical and convenient notation for tensor expressions in machine learning, quantum circuit simulation, and other fields. It has since been implemented in additional Python frameworks such as PyTorch and TensorFlow, as well as in other programming languages such as Julia. Despite its practical success, the einsum notation still lacks a solid theoretical basis, and is not unified across the different frameworks, limiting opportunities for formal reasoning and systematic optimization. In this work, we discuss the terminology of tensor expressions and provide a formal definition of the einsum language. Based on this definition, we formalize and prove important equivalence rules for tensor expressions and highlight their relevance in practical applications.
- Abstract(参考訳): 2011年、機械学習、量子回路シミュレーション、その他の分野におけるテンソル表現の実用的で便利な表記法として、NumPyにeinsumが導入された。
それ以降、PyTorchやTensorFlowといったPythonフレームワークや、Juliaなどの他のプログラミング言語でも実装されている。
その実践的な成功にもかかわらず、einsum表記は依然として堅固な理論的基礎を欠いており、様々なフレームワークで統一されておらず、形式的推論や体系的な最適化の機会を制限している。
本研究ではテンソル表現の用語について論じ,einsum言語の形式的定義を提供する。
この定義に基づき、テンソル表現の重要な等価ルールを定式化し、証明し、実践的応用におけるそれらの妥当性を強調する。
関連論文リスト
- The Foundations of Tokenization: Statistical and Computational Concerns [51.370165245628975]
トークン化は、NLPパイプラインにおける重要なステップである。
NLPにおける標準表現法としての重要性は認識されているが、トークン化の理論的基盤はまだ完全には理解されていない。
本稿では,トークン化モデルの表現と解析のための統一的な形式的枠組みを提案することによって,この理論的ギャップに対処することに貢献している。
論文 参考訳(メタデータ) (2024-07-16T11:12:28Z) - An introduction to graphical tensor notation for mechanistic
interpretability [0.0]
テンソル間でどの操作が行われているのかを混乱させるのは容易です。
この文書の前半は表記法を導入し、いくつかの分解に適用する。
後半は、言語モデルを機械的に理解するためのいくつかの基本的なアプローチに適用します。
論文 参考訳(メタデータ) (2024-02-02T02:56:01Z) - Meaning Representations from Trajectories in Autoregressive Models [106.63181745054571]
入力テキストを拡張可能なすべてのトラジェクトリの分布を考慮し,自己回帰言語モデルから意味表現を抽出する。
この戦略はプロンプトフリーであり、微調整は必要とせず、事前訓練された自己回帰モデルにも適用できる。
我々は,大規模なモデルから得られた表現が人間のアノテーションとよく一致し,意味的類似性タスクにおける他のゼロショットおよびプロンプトフリーメソッドよりも優れており,標準埋め込みが扱えないより複雑なエンタテインメントや包含タスクの解決に使用できることを実証的に示す。
論文 参考訳(メタデータ) (2023-10-23T04:35:58Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。