論文の概要: Discrete Morphological Neural Networks
- arxiv url: http://arxiv.org/abs/2309.00588v2
- Date: Fri, 9 Feb 2024 01:37:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 20:29:53.171715
- Title: Discrete Morphological Neural Networks
- Title(参考訳): 離散形態的ニューラルネットワーク
- Authors: Diego Marcondes and Junior Barrera
- Abstract要約: We propose the Discrete Morphological Neural Networks (DMNN) for binary image analysis to represent W-operators。
概念実証として、DMNNを用いて、ノイズのある桁の境界を認識する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A classical approach to designing binary image operators is Mathematical
Morphology (MM). We propose the Discrete Morphological Neural Networks (DMNN)
for binary image analysis to represent W-operators and estimate them via
machine learning. A DMNN architecture, which is represented by a Morphological
Computational Graph, is designed as in the classical heuristic design of
morphological operators, in which the designer should combine a set of MM
operators and Boolean operations based on prior information and theoretical
knowledge. Then, once the architecture is fixed, instead of adjusting its
parameters (i.e., structural elements or maximal intervals) by hand, we propose
a lattice descent algorithm (LDA) to train these parameters based on a sample
of input and output images under the usual machine learning approach. We also
propose a stochastic version of the LDA that is more efficient, is scalable and
can obtain small error in practical problems. The class represented by a DMNN
can be quite general or specialized according to expected properties of the
target operator, i.e., prior information, and the semantic expressed by
algebraic properties of classes of operators is a differential relative to
other methods. The main contribution of this paper is the merger of the two
main paradigms for designing morphological operators: classical heuristic
design and automatic design via machine learning. As a proof-of-concept, we
apply the DMNN to recognize the boundary of digits with noise, and we discuss
many topics for future research.
- Abstract(参考訳): 二元像作用素を設計する古典的なアプローチは数学的形態学(mm)である。
本稿では,二元画像解析のための離散形態ニューラルネットワーク(DMNN)を提案し,W-演算子を表現し,機械学習を用いて推定する。
dmnnアーキテクチャは形態素計算グラフで表現され、形態素演算子の古典的なヒューリスティックな設計と同様に設計されており、設計者は事前情報と理論知識に基づいてmm演算子とブール演算のセットを組み合わせる必要がある。
次に、アーキテクチャが修正されると、そのパラメータ(すなわち構造要素または最大間隔)を手で調整するのではなく、通常の機械学習アプローチで入力および出力画像のサンプルに基づいてこれらのパラメータを訓練する格子降下アルゴリズム(lda)を提案する。
また,LDAの確率的バージョンも提案し,より効率的で,スケーラブルで,実用上の問題では少ない誤差が得られることを示した。
dmnnで表されるクラスは、対象演算子の期待する特性、すなわち事前情報、すなわち演算子のクラスの代数的性質によって表される意味論により、かなり一般的あるいは特殊化することができる。
本論文の主な貢献は,古典的ヒューリスティック設計と機械学習による自動設計という,形態的演算子設計の2つのパラダイムの融合である。
概念実証として、DMNNを用いて、ノイズのある桁の境界を認識し、今後の研究について多くの話題を論じる。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - An Algorithm to Train Unrestricted Sequential Discrete Morphological
Neural Networks [0.0]
本稿では,一般W-演算子の構成によりアーキテクチャが与えられる非制限順序DMNNを学習するアルゴリズムを提案する。
このアルゴリズムを実例で説明する。
論文 参考訳(メタデータ) (2023-10-06T20:55:05Z) - The Parametric Complexity of Operator Learning [6.800286371280922]
「本論は、Cr$-またはLipschitz-regularityのみによって特徴づけられる作用素の一般クラスに対して、演算子学習がパラメトリック複雑性の呪いに苦しむことを証明することを目的としている。」
この論文の第二の貢献は、ハミルトン・ヤコビ方程式で定義される解作用素に対して、この一般的な呪いが克服可能であることを証明することである。
HJ-Netと呼ばれる新しいニューラル演算子アーキテクチャが導入され、基礎となるハミルトン系の特性情報を明示的に考慮している。
論文 参考訳(メタデータ) (2023-06-28T05:02:03Z) - FAENet: Frame Averaging Equivariant GNN for Materials Modeling [123.19473575281357]
データ変換による任意のモデルE(3)-同変や不変化を実現するために,フレームアラグリング(SFA)に依存したフレキシブルなフレームワークを導入する。
本手法の有効性を理論的および実験的に証明し, 材料モデリングにおける精度と計算スケーラビリティを実証する。
論文 参考訳(メタデータ) (2023-04-28T21:48:31Z) - Experimental Observations of the Topology of Convolutional Neural
Network Activations [2.4235626091331737]
トポロジカル・データ解析は、複雑な構造のコンパクトでノイズ・ロバストな表現を提供する。
ディープニューラルネットワーク(DNN)は、モデルアーキテクチャによって定義された一連の変換に関連する数百万のパラメータを学習する。
本稿では,画像分類に使用される畳み込みニューラルネットワークの解釈可能性に関する知見を得る目的で,TDAの最先端技術を適用した。
論文 参考訳(メタデータ) (2022-12-01T02:05:44Z) - A simple probabilistic neural network for machine understanding [0.0]
本稿では,機械理解のためのモデルとして,確率的ニューラルネットワークと内部表現の固定化について論じる。
内部表現は、それが最大関係の原理と、どのように異なる特徴が組み合わされるかについての最大無知を満たすことを要求して導出する。
このアーキテクチャを持つ学習機械は、パラメータやデータの変化に対する表現の連続性など、多くの興味深い特性を享受している、と我々は主張する。
論文 参考訳(メタデータ) (2022-10-24T13:00:15Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Learning Deep Morphological Networks with Neural Architecture Search [19.731352645511052]
メタラーニングに基づく形態論的演算子をディープニューラルネットワークに組み込む手法を提案する。
学習したアーキテクチャは、我々の新しい形態的操作が、様々なタスクにおけるDNNのパフォーマンスを著しく向上させることを示す。
論文 参考訳(メタデータ) (2021-06-14T19:19:48Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。