論文の概要: An Algorithm to Train Unrestricted Sequential Discrete Morphological
Neural Networks
- arxiv url: http://arxiv.org/abs/2310.04584v1
- Date: Fri, 6 Oct 2023 20:55:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 17:30:59.207208
- Title: An Algorithm to Train Unrestricted Sequential Discrete Morphological
Neural Networks
- Title(参考訳): 非制限連続離散型形態素ニューラルネットワークの学習アルゴリズム
- Authors: Diego Marcondes, Mariana Feldman and Junior Barrera
- Abstract要約: 本稿では,一般W-演算子の合成によってアーキテクチャが与えられる制約のない連続DMNN(USDMNN)を学習するアルゴリズムを提案する。
USDMNNは、現在進行中の問題に関する事前情報に依存しておらず、実践者が強いドメイン知識を持っていない場合により適している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advent of deep learning, there have been attempts to insert
mathematical morphology (MM) operators into convolutional neural networks
(CNN), and the most successful endeavor to date has been the morphological
neural networks (MNN). Although MNN have performed better than CNN in solving
some problems, they inherit their black-box nature. Furthermore, in the case of
binary images, they are approximations, which loose the Boolean lattice
structure of MM operators and, thus, it is not possible to represent a specific
class of W-operators with desired properties. In a recent work, we proposed the
Discrete Morphological Neural Networks (DMNN) for binary image transformation
to represent specific classes of W-operators and estimate them via machine
learning. We also proposed a stochastic lattice gradient descent algorithm
(SLGDA) to learn the parameters of Canonical Discrete Morphological Neural
Networks (CDMNN), whose architecture is composed only of operators that can be
decomposed as the supremum, infimum, and complement of erosions and dilations.
In this paper, we propose an algorithm to learn unrestricted sequential DMNN
(USDMNN), whose architecture is given by the composition of general
W-operators. We consider the representation of a W-operator by its
characteristic Boolean function, and then learn it via a SLGDA in the Boolean
lattice of functions. Although both the CDMNN and USDMNN have the Boolean
lattice structure, USDMNN are not as dependent on prior information about the
problem at hand, and may be more suitable in instances in which the
practitioner does not have strong domain knowledge. We illustrate the algorithm
in a practical example.
- Abstract(参考訳): ディープラーニングの出現に伴い、数学的形態学演算子(MM)を畳み込みニューラルネットワーク(CNN)に挿入する試みが試みられ、これまでで最も成功したのが形態学ニューラルネットワーク(MNN)である。
MNNはいくつかの問題を解決する際にCNNよりも優れているが、ブラックボックスの性質を継承している。
さらに、バイナリ画像の場合、それらは近似であり、MM演算子のブール格子構造を緩めるため、所望の特性を持つ特定のW-演算子のクラスを表現することはできない。
本研究では,w-operatorsの特定クラスを表現し,機械学習により推定する2値画像変換のための離散形態的ニューラルネットワーク(dmnn)を提案する。
また,正規離散型モルフォロジーニューラルネットワーク (CDMNN) のパラメータを学習するための確率勾配勾配降下アルゴリズム (SLGDA) も提案した。
本稿では,一般W-演算子の構成によりアーキテクチャが与えられる制約のない連続DMNN(USDMNN)を学習するアルゴリズムを提案する。
我々は、w-演算子の特徴的なブール関数による表現を考え、関数のブール格子のslgdaを通してそれを学習する。
CDMNNとUSDMNNはどちらもブール格子構造を持っているが、USDMNNは問題の事前情報に依存しておらず、実践者が強いドメイン知識を持っていない場合により適している可能性がある。
このアルゴリズムを実例で説明する。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - A foundation for exact binarized morphological neural networks [2.8925699537310137]
ディープニューラルネットワーク(NN)のトレーニングと実行は、多くの計算とエネルギー集約的な特別なハードウェアを必要とすることが多い。
計算量と消費電力を減らす方法の1つは二重NNを使うことであるが、これは符号関数が非滑らかな勾配を持つため訓練が困難である。
本研究では,特定の条件下での性能を損なうことなく,ConvNetを二項化できる数学的形態(MM)に基づくモデルを提案する。
論文 参考訳(メタデータ) (2024-01-08T11:37:44Z) - Discrete Morphological Neural Networks [0.0]
We propose the Discrete Morphological Neural Networks (DMNN) for binary image analysis to represent W-operators。
概念実証として、DMNNを用いて、ノイズのある桁の境界を認識する。
論文 参考訳(メタデータ) (2023-09-01T17:04:48Z) - Resolution-Invariant Image Classification based on Fourier Neural
Operators [1.3190581566723918]
画像分類における一般化ニューラルネットワーク (FNO) の利用について, 標準畳み込みニューラルネットワーク (CNN) と比較して検討した。
我々は、ルベーグ空間上の連続およびFr'echet微分可能なニューラル作用素の例としてFNOアーキテクチャを導出する。
論文 参考訳(メタデータ) (2023-04-02T10:23:36Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Binary Multi Channel Morphological Neural Network [5.551756485554158]
本稿では,畳み込みニューラルネットワーク上に構築されたBiMoNNを紹介する。
ネットワーク全体をバイナライズするために,BiMoNNとモルフォロジー演算子との等価性を実証する。
これらは古典的形態学演算子を学習し、医用画像アプリケーションで有望な結果を示すことができる。
論文 参考訳(メタデータ) (2022-04-19T09:26:11Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - Learning Deep Morphological Networks with Neural Architecture Search [19.731352645511052]
メタラーニングに基づく形態論的演算子をディープニューラルネットワークに組み込む手法を提案する。
学習したアーキテクチャは、我々の新しい形態的操作が、様々なタスクにおけるDNNのパフォーマンスを著しく向上させることを示す。
論文 参考訳(メタデータ) (2021-06-14T19:19:48Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。