論文の概要: A Neural Network for Semigroups
- arxiv url: http://arxiv.org/abs/2103.07388v1
- Date: Fri, 12 Mar 2021 16:28:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-15 15:17:13.827431
- Title: A Neural Network for Semigroups
- Title(参考訳): 半群のためのニューラルネットワーク
- Authors: Edouard Balzin, Boris Shminke
- Abstract要約: 有限半群の部分乗算表を完成させるタスクにデノイジングオートエンコーダベースのニューラルネットワークアーキテクチャを適用します。
利用可能なデータの約10%で、約80%のケースで、完全なCayleyをわずか半分から再構築できるモデルを構築することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tasks like image reconstruction in computer vision, matrix completion in
recommender systems and link prediction in graph theory, are well studied in
machine learning literature. In this work, we apply a denoising
autoencoder-based neural network architecture to the task of completing partial
multiplication (Cayley) tables of finite semigroups. We suggest a novel loss
function for that task based on the algebraic nature of the semigroup data. We
also provide a software package for conducting experiments similar to those
carried out in this work. Our experiments showed that with only about 10% of
the available data, it is possible to build a model capable of reconstructing a
full Cayley from only half of it in about 80% of cases.
- Abstract(参考訳): コンピュータビジョンにおける画像再構築、レコメンダーシステムにおける行列補完、グラフ理論におけるリンク予測などのタスクは、機械学習文学においてよく研究されている。
本研究では,有限半群の部分乗算(cayley)テーブルを完備するタスクに,雑音化オートエンコーダに基づくニューラルネットワークアーキテクチャを適用する。
半群データの代数的性質に基づいて,そのタスクに対する新たな損失関数を提案する。
また,本研究で実施した実験と同じような実験を行うソフトウェアパッケージも提供する。
私たちの実験では、利用可能なデータの約10%しかなければ、全体のケイリーを約80%のケースで半分から再構築できるモデルを構築することが可能であることが示されました。
関連論文リスト
- Hidden Activations Are Not Enough: A General Approach to Neural Network Predictions [0.0]
本稿では,クイバー表現理論のツールを用いたニューラルネットワーク解析のための新しい数学的枠組みを提案する。
データサンプルの帰納的クイバー表現を活用することで、従来の隠蔽層出力よりも多くの情報をキャプチャする。
結果はアーキテクチャ非依存でタスク非依存であり、広く適用できます。
論文 参考訳(メタデータ) (2024-09-20T02:35:13Z) - Why do CNNs excel at feature extraction? A mathematical explanation [53.807657273043446]
実世界のデータセットに似た画像を生成するのに使用できる特徴抽出に基づく画像分類の新しいモデルを提案する。
本研究では,特徴の存在を検知する一方向線形関数を構築し,畳み込みネットワークで実現可能であることを示す。
論文 参考訳(メタデータ) (2023-07-03T10:41:34Z) - Distributive Pre-Training of Generative Modeling Using Matrix-Product
States [0.0]
本稿では,基本的なテンソルネットワーク操作,例えば和と圧縮を利用した代替的なトレーニング手法を検討する。
トレーニングアルゴリズムは、製品状態表現におけるすべてのトレーニングデータから構築された重ね合わせ状態を圧縮する。
MNISTデータセット上でアルゴリズムをベンチマークし、新しい画像と分類タスクを生成するための妥当な結果を示す。
論文 参考訳(メタデータ) (2023-06-26T15:46:08Z) - Diffused Redundancy in Pre-trained Representations [98.55546694886819]
事前訓練された表現で機能がどのようにコード化されているか、より詳しく見ていきます。
与えられた層における学習された表現は拡散冗長性を示す。
我々の発見は、事前訓練されたディープニューラルネットワークによって学習された表現の性質に光を当てた。
論文 参考訳(メタデータ) (2023-05-31T21:00:50Z) - Representation Learning via Manifold Flattening and Reconstruction [10.823557517341964]
本研究では,組込み部分多様体の線形化と再構成を行うニューラルネットワークのペアを明示的に構築するアルゴリズムを提案する。
このような生成されたニューラルネットワークは、FlatNet(FlatNet)と呼ばれ、理論的に解釈可能であり、大規模に計算可能であり、データをテストするためにうまく一般化されている。
論文 参考訳(メタデータ) (2023-05-02T20:36:34Z) - A Novel Stochastic Gradient Descent Algorithm for Learning Principal
Subspaces [39.51484186673415]
神経科学、画像圧縮、深層強化学習といったいくつかの応用において、与えられた行列の主部分空間は、個々のデータの有用な低次元表現を提供する。
ここでは、与えられた行列の$d$次元主部分空間をサンプルエントリから決定することに興味がある。
我々は、サンプルエントリから主部分空間を学習し、近似部分空間がニューラルネットワークで表現されているときに適用できるアルゴリズムを導出し、事実上無限の行数と列数を持つデータセットにスケールすることができる。
論文 参考訳(メタデータ) (2022-12-08T01:26:47Z) - Deep ensembles in bioimage segmentation [74.01883650587321]
本研究では,畳み込みニューラルネットワーク(CNN)のアンサンブルを提案する。
アンサンブル法では、多くの異なるモデルが訓練され、分類に使用され、アンサンブルは単一分類器の出力を集約する。
提案するアンサンブルは,DeepLabV3+とHarDNet環境を用いて,異なるバックボーンネットワークを組み合わせることで実現されている。
論文 参考訳(メタデータ) (2021-12-24T05:54:21Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Robustness to Missing Features using Hierarchical Clustering with Split
Neural Networks [39.29536042476913]
階層的クラスタリングを用いて類似の入力特徴をクラスタリングする,単純かつ効果的な手法を提案する。
本手法を一連のベンチマークデータセット上で評価し,単純な計算手法を用いても有望な改善を示す。
論文 参考訳(メタデータ) (2020-11-19T00:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。