論文の概要: Intelligent Matrix Exponentiation
- arxiv url: http://arxiv.org/abs/2008.03936v1
- Date: Mon, 10 Aug 2020 07:49:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 22:13:07.295963
- Title: Intelligent Matrix Exponentiation
- Title(参考訳): インテリジェントマトリックス指数
- Authors: Thomas Fischbacher and Iulia M. Comsa and Krzysztof Potempa and Moritz
Firsching and Luca Versari and Jyrki Alakuijala
- Abstract要約: 単一入力依存行列の指数関数を唯一の非線形性として用いる新しい機械学習アーキテクチャを提案する。
このアーキテクチャは、CIFAR-10を含むベンチマーク問題における他の汎用アーキテクチャよりもはるかに少ないパラメータで優れている。
- 参考スコア(独自算出の注目度): 5.382679710017695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel machine learning architecture that uses the exponential of
a single input-dependent matrix as its only nonlinearity. The mathematical
simplicity of this architecture allows a detailed analysis of its behaviour,
providing robustness guarantees via Lipschitz bounds. Despite its simplicity, a
single matrix exponential layer already provides universal approximation
properties and can learn fundamental functions of the input, such as periodic
functions or multivariate polynomials. This architecture outperforms other
general-purpose architectures on benchmark problems, including CIFAR-10, using
substantially fewer parameters.
- Abstract(参考訳): 単一入力依存行列の指数関数を唯一の非線形性として用いる新しい機械学習アーキテクチャを提案する。
このアーキテクチャの数学的単純さは、その振る舞いの詳細な解析を可能にし、リプシッツ境界による堅牢性を保証する。
その単純さにもかかわらず、単一の行列指数関数層は既に普遍近似特性を提供しており、周期関数や多変量多項式といった入力の基本関数を学ぶことができる。
このアーキテクチャは、CIFAR-10を含むベンチマーク問題における他の汎用アーキテクチャよりもはるかに少ないパラメータで優れている。
関連論文リスト
- Reducing the Transformer Architecture to a Minimum [5.352839075466439]
トランスフォーマーは、特に自然言語処理(NLP)とコンピュータビジョン(CV)において、広く成功しているモデルアーキテクチャである。
注意機構自体は、その内部的な類似度測定によって非線形である。
MNISTとCIFAR-10という,広範なCVベンチマークを試験して,その基盤を築き上げた。
論文 参考訳(メタデータ) (2024-10-17T16:36:14Z) - Understanding Matrix Function Normalizations in Covariance Pooling through the Lens of Riemannian Geometry [63.694184882697435]
グローバル共分散プーリング(GCP)は、高レベルの表現の2階統計を利用して、ディープニューラルネットワーク(DNN)の性能を向上させることが実証されている。
論文 参考訳(メタデータ) (2024-07-15T07:11:44Z) - Efficient Variational Quantum Linear Solver for Structured Sparse Matrices [0.6138671548064355]
代替基底を用いることで、行列のスパーシリティと基盤構造をよりうまく活用できることが示される。
我々は、グローバル/ローカルなVQLSコスト関数を計算するために効率的な量子回路を設計するために、ユニタリ補完の概念を用いる。
論文 参考訳(メタデータ) (2024-04-25T19:22:05Z) - A Unified Framework for Discovering Discrete Symmetries [17.687122467264487]
対称性を尊重する関数を対称性のクラスから学習する問題を考察する。
我々は、幅広いサブグループにわたる対称性の発見を可能にする統一的なフレームワークを開発する。
論文 参考訳(メタデータ) (2023-09-06T10:41:30Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - SPINE: Soft Piecewise Interpretable Neural Equations [0.0]
完全に接続されたネットワークはユビキタスだが解釈不能である。
本論文は,個々の部品に設定操作を施すことにより,ピースワイズに新しいアプローチを採っている(一部)。
完全に接続されたレイヤを解釈可能なレイヤに置き換えなければならない、さまざまなアプリケーションを見つけることができる。
論文 参考訳(メタデータ) (2021-11-20T16:18:00Z) - Bilinear Classes: A Structural Framework for Provable Generalization in
RL [119.42509700822484]
Bilinear Classesは強化学習の一般化を可能にする新しい構造フレームワークである。
このフレームワークは、サンプルの複雑さが達成可能な、ほとんどすべての既存のモデルを取り込んでいる。
我々の主な成果は、双線形クラスのためのサンプル複雑性を持つRLアルゴリズムである。
論文 参考訳(メタデータ) (2021-03-19T16:34:20Z) - A Functional Perspective on Learning Symmetric Functions with Neural
Networks [48.80300074254758]
本研究では,測定値に基づいて定義されたニューラルネットワークの学習と表現について検討する。
正規化の異なる選択の下で近似と一般化境界を確立する。
得られたモデルは効率よく学習でき、入力サイズにまたがる一般化保証を享受できる。
論文 参考訳(メタデータ) (2020-08-16T16:34:33Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z) - Supervised Quantile Normalization for Low-rank Matrix Approximation [50.445371939523305]
我々は、$X$ の値と $UV$ の値を行ワイズで操作できる量子正規化演算子のパラメータを学習し、$X$ の低ランク表現の質を改善する。
本稿では,これらの手法が合成およびゲノムデータセットに適用可能であることを実証する。
論文 参考訳(メタデータ) (2020-02-08T21:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。