論文の概要: Linear algebra with transformers
- arxiv url: http://arxiv.org/abs/2112.01898v1
- Date: Fri, 3 Dec 2021 13:21:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 14:30:24.587483
- Title: Linear algebra with transformers
- Title(参考訳): トランスフォーマー付き線形代数
- Authors: Fran\c{c}ois Charton
- Abstract要約: 数値計算を高精度に行うために,変圧器を訓練できることを示す。
線形代数の問題を考察する:行列変換、加算、乗法、固有値とベクトル、特異値分解、反転。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most applications of transformers to mathematics, from integration to theorem
proving, focus on symbolic computation. In this paper, we show that
transformers can be trained to perform numerical calculations with high
accuracy. We consider problems of linear algebra: matrix transposition,
addition, multiplication, eigenvalues and vectors, singular value
decomposition, and inversion. Training small transformers (up to six layers)
over datasets of random matrices, we achieve high accuracies (over 90%) on all
problems. We also show that trained models can generalize out of their training
distribution, and that out-of-domain accuracy can be greatly improved by
working from more diverse datasets (in particular, by training from matrices
with non-independent and identically distributed coefficients). Finally, we
show that few-shot learning can be leveraged to re-train models to solve larger
problems.
- Abstract(参考訳): 変換器の数学への応用のほとんどは、積分から定理証明まで、記号計算に重点を置いている。
本稿では,数値計算を高精度に行うために,変圧器を訓練できることを示す。
線形代数の問題を考察する:行列変換、加算、乗法、固有値とベクトル、特異値分解、反転。
ランダム行列のデータセット上で小さなトランスフォーマー(最大6層)をトレーニングし、すべての問題に対して高い精度(90%以上)を達成する。
また、トレーニングされたモデルはトレーニング分布から一般化することができ、より多様なデータセット(特に非独立で同一の分散係数を持つ行列からトレーニングすることで、ドメイン外の精度を大幅に向上できることを示す。
最後に,より大規模な問題を解決するために,モデルの再トレーニングに少数の学習を活用できることを実証する。
関連論文リスト
- MemoryFormer: Minimize Transformer Computation by Removing Fully-Connected Layers [43.39466934693055]
本稿では,新しい視点から計算複雑性(FLOP)を大幅に低減する,新しいトランスフォーマーアーキテクチャであるMemoryFormerを提案する。
これは、完全連結層の線形射影を置き換えるために、特徴変換の代替手法を利用することで実現される。
提案手法の有効性を示すため,様々なベンチマーク実験を行った。
論文 参考訳(メタデータ) (2024-11-20T02:41:53Z) - Graph Transformers Dream of Electric Flow [72.06286909236827]
グラフデータに適用された線形変換器は、正準問題を解くアルゴリズムを実装可能であることを示す。
そこで我々は,これらのグラフアルゴリズムをそれぞれ実装するための明示的な重み設定を提案し,基礎となるアルゴリズムの誤差によって構築したトランスフォーマーの誤差を限定する。
論文 参考訳(メタデータ) (2024-10-22T05:11:45Z) - Learning Linear Attention in Polynomial Time [115.68795790532289]
線形注意を持つ単層変圧器の学習性に関する最初の結果を提供する。
線形アテンションは RKHS で適切に定義された線形予測器とみなすことができる。
我々は,すべての経験的リスクが線形変換器と同等のトレーニングデータセットを効率的に識別する方法を示す。
論文 参考訳(メタデータ) (2024-10-14T02:41:01Z) - Dissecting Multiplication in Transformers: Insights into LLMs [23.109124772063574]
本稿では,この領域における変圧器の不完全性を探索し,説明するために,典型的な算術的タスクである整数乗法に焦点を当てる。
n桁整数乗算を行うために訓練されたバニラ変圧器の包括的解析を行う。
乗算タスクにおける変換器の性能向上のための改良を提案する。
論文 参考訳(メタデータ) (2024-07-22T04:07:26Z) - Optimal Matrix-Mimetic Tensor Algebras via Variable Projection [0.0]
行列緩和性(Matrix mimeticity)は、テンソルを、行列に類似した乗算、分解、解析が可能な作用素として解釈することから生じる。
我々は、データの事前の知識に頼ることなく、最適線形写像と対応するテンソル表現を学習する。
可変射影型アルゴリズムの変換と収束解析の独創性理論を提供する。
論文 参考訳(メタデータ) (2024-06-11T04:52:23Z) - CoLA: Exploiting Compositional Structure for Automatic and Efficient
Numerical Linear Algebra [62.37017125812101]
機械学習における大規模線形代数問題に対して, CoLA という, 単純だが汎用的なフレームワークを提案する。
線形演算子抽象と合成ディスパッチルールを組み合わせることで、CoLAはメモリと実行時の効率的な数値アルゴリズムを自動的に構築する。
偏微分方程式,ガウス過程,同変モデル構築,教師なし学習など,幅広い応用で有効性を示す。
論文 参考訳(メタデータ) (2023-09-06T14:59:38Z) - Large-scale gradient-based training of Mixtures of Factor Analyzers [67.21722742907981]
本稿では,勾配降下による高次元学習を効果的に行うための理論解析と新しい手法の両立に寄与する。
MFAトレーニングと推論/サンプリングは,学習終了後の行列逆変換を必要としない精度行列に基づいて行うことができることを示す。
理論解析と行列の他に,SVHNやMNISTなどの画像データセットにMFAを適用し,サンプル生成と外乱検出を行う能力を示す。
論文 参考訳(メタデータ) (2023-08-26T06:12:33Z) - Transformers learn in-context by gradient descent [58.24152335931036]
自己回帰目標におけるトランスフォーマーの訓練は、勾配に基づくメタラーニングの定式化と密接に関連している。
トレーニングされたトランスフォーマーがメザ最適化器となる方法,すなわち,前方通過における勾配降下によるモデル学習方法を示す。
論文 参考訳(メタデータ) (2022-12-15T09:21:21Z) - What is my math transformer doing? -- Three results on interpretability
and generalization [0.0]
間違ったモデル予測が解の深い数学的性質を保っていることを示す。
また、トレーニングデータセットの慎重な選択がトレーニングを加速し、トレーニング分布からモデルを一般化できることも示します。
論文 参考訳(メタデータ) (2022-10-31T22:31:13Z) - Sketching Transformed Matrices with Applications to Natural Language
Processing [76.6222695417524]
本稿では, 変換行列を用いて, 与えられた小さな行列の積を計算するための空間効率のよいスケッチアルゴリズムを提案する。
提案手法は誤差が小さく,空間と時間の両方で効率がよいことを示す。
論文 参考訳(メタデータ) (2020-02-23T03:07:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。