論文の概要: An Informal Introduction to Multiplet Neural Networks
- arxiv url: http://arxiv.org/abs/2006.01606v1
- Date: Tue, 2 Jun 2020 13:46:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 23:37:46.977895
- Title: An Informal Introduction to Multiplet Neural Networks
- Title(参考訳): 多重ニューラルネットワークの非公式導入
- Authors: Nathan E. Frick
- Abstract要約: 私はドット積を重み付きリーマー平均に置き換え、一般化された平均の異なるケースをエミュレートする。
一般化パラメータは通常、多重項の各ニューロンに対して異なる値に設定される。
ネットワークのいくつかの特性について検討し、古典的な排他的問題や問題を2層にエミュレートする能力を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the artificial neuron, I replace the dot product with the weighted Lehmer
mean, which may emulate different cases of a generalized mean. The single
neuron instance is replaced by a multiplet of neurons which have the same
averaging weights. A group of outputs feed forward, in lieu of the single
scalar. The generalization parameter is typically set to a different value for
each neuron in the multiplet.
I further extend the concept to a multiplet taken from the Gini mean.
Derivatives with respect to the weight parameters and with respect to the two
generalization parameters are given.
Some properties of the network are investigated, showing the capacity to
emulate the classical exclusive-or problem organically in two layers and
perform some multiplication and division. The network can instantiate truncated
power series and variants, which can be used to approximate different
functions, provided that parameters are constrained.
Moreover, a mean case slope score is derived that can facilitate a
learning-rate novelty based on homogeneity of the selected elements. The
multiplet neuron equation provides a way to segment regularization timeframes
and approaches.
- Abstract(参考訳): 人工ニューロンでは、ドット積を重み付けされたリーマー平均に置き換え、一般化された平均の異なるケースをエミュレートする。
単一ニューロンのインスタンスは、同じ平均的な重みを持つニューロンの多重体に置き換えられる。
出力のグループは、単一のスカラーの代わりに前方にフィードします。
一般化パラメータは通常、多重項の各ニューロンに対して異なる値に設定される。
私はさらに、この概念をジーニ平均から取った多重語に拡張します。
重みパラメータに関する微分と、2つの一般化パラメータに関する微分が与えられる。
ネットワークのいくつかの特性について検討し、古典的排他的問題を2層に有機的にエミュレートし、乗算と分割を行う能力を示す。
ネットワークは、パラメータが制約されている場合、異なる関数を近似するために使用できる、切り捨てられた電力列と変種をインスタンス化することができる。
また、選択された要素の均質性に基づく学習率の新規性を容易にする平均ケーススロープスコアを導出する。
多重ニューロン方程式は正規化時間枠とアプローチを分割する方法を提供する。
関連論文リスト
- No One-Size-Fits-All Neurons: Task-based Neurons for Artificial Neural Networks [25.30801109401654]
人間の脳はタスクベースのニューロンのユーザなので、人工ネットワークの設計はタスクベースのアーキテクチャ設計からタスクベースのニューロン設計に移行できるだろうか?
本稿では,タスクベースニューロンのプロトタイピングのための2段階のフレームワークを提案する。
実験により、提案されたタスクベースのニューロン設計は実現可能であるだけでなく、他の最先端モデルと競合する性能を提供することが示された。
論文 参考訳(メタデータ) (2024-05-03T09:12:46Z) - Soft Matching Distance: A metric on neural representations that captures
single-neuron tuning [6.5714523708869566]
ニューラル表現(dis)相似性の共通測度は、ニューラルアクティベーション空間の回転や反射に敏感であるように設計されている。
異なる大きさのネットワーク間の距離を測定するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-11-16T00:13:00Z) - Multilayer Multiset Neuronal Networks -- MMNNs [55.2480439325792]
本研究は,2層以上の類似性ニューロンを組み込んだ多層神経回路網について述べる。
また,回避すべき画像領域に割り当てられる反プロトタイプ点の利用についても検討した。
論文 参考訳(メタデータ) (2023-08-28T12:55:13Z) - Cones: Concept Neurons in Diffusion Models for Customized Generation [41.212255848052514]
本稿では,特定の対象に対応する拡散モデルにおいて,ニューロンの小さな集合を見出す。
概念ニューロンは、生成結果の解釈と操作において磁気特性を示す。
大規模な応用においては、ニューロンは環境に優しいため、密度の高いfloat32値ではなく、sparseクラスタのintインデックスを格納するだけである。
論文 参考訳(メタデータ) (2023-03-09T09:16:04Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - The activity-weight duality in feed forward neural networks: The
geometric determinants of generalization [7.372592187197655]
ニューロンの特定の層における活動の変化と、任意のフィードフォワード神経ネットワーク内の密結合層内のニューロンの次の層に接続する重みの変化の間には、正確な双対性がある。
これらの洞察は、過度にパラメータ化されたニューラルネットワークでより一般化可能なソリューションを見つけるアルゴリズムの開発を導くのに使うことができる。
論文 参考訳(メタデータ) (2022-03-21T05:00:54Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - On the training of sparse and dense deep neural networks: less
parameters, same performance [0.0]
本稿では,2021年に発表されたスペクトル学習手法の変種を提案する。
固有値は検証可能なノブとして機能し、(i)入力ノードの寄与を増強したり、あるいは沈黙したりするために自由に調整することができる。
それぞれのスペクトルパラメータはノード間重みの集合全体を反映しており、この特性を効果的に活用し、見事な分類能力を持つスパースネットワークを創出する。
論文 参考訳(メタデータ) (2021-06-17T14:54:23Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。