論文の概要: Binary Morphological Neural Network
- arxiv url: http://arxiv.org/abs/2203.12337v1
- Date: Wed, 23 Mar 2022 11:30:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 23:16:39.962586
- Title: Binary Morphological Neural Network
- Title(参考訳): 二元型形態素ニューラルネットワーク
- Authors: Theodore Aouad, Hugues Talbot
- Abstract要約: 私たちは、バイナリ入力と出力を処理するニューラルネットワークを作成します。
本稿では, 畳み込みを浸食や拡張に置き換えることで, 画像に適応した層を定式化するためのCNNによる構築を提案する。
基本バイナリ演算子を学習するために設計された有望な実験結果を示す。
- 参考スコア(独自算出の注目度): 5.551756485554158
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the last ten years, Convolutional Neural Networks (CNNs) have formed the
basis of deep-learning architectures for most computer vision tasks. However,
they are not necessarily optimal. For example, mathematical morphology is known
to be better suited to deal with binary images. In this work, we create a
morphological neural network that handles binary inputs and outputs. We propose
their construction inspired by CNNs to formulate layers adapted to such images
by replacing convolutions with erosions and dilations. We give explainable
theoretical results on whether or not the resulting learned networks are indeed
morphological operators. We present promising experimental results designed to
learn basic binary operators, and we have made our code publicly available
online.
- Abstract(参考訳): 過去10年間で、畳み込みニューラルネットワーク(CNN)は、ほとんどのコンピュータビジョンタスクのためのディープラーニングアーキテクチャの基礎を形成してきた。
しかし、必ずしも最適とは限らない。
例えば、数学的形態学はバイナリ画像を扱うのに適していることが知られている。
本研究では,バイナリ入力と出力を処理する形態的ニューラルネットワークを構築する。
本稿では, 畳み込みを浸食や拡張に置き換えることで, 画像に適応した層を定式化するためのCNNによる構築を提案する。
得られた学習ネットワークが実際にモルフォロジー演算子であるか否かに関する説明可能な理論的結果を与える。
基本バイナリ演算子を学習するために設計された有望な実験結果を示し、コードをオンラインで公開しました。
関連論文リスト
- CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - An Algorithm to Train Unrestricted Sequential Discrete Morphological
Neural Networks [0.0]
本稿では,一般W-演算子の構成によりアーキテクチャが与えられる非制限順序DMNNを学習するアルゴリズムを提案する。
このアルゴリズムを実例で説明する。
論文 参考訳(メタデータ) (2023-10-06T20:55:05Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Binary Multi Channel Morphological Neural Network [5.551756485554158]
本稿では,畳み込みニューラルネットワーク上に構築されたBiMoNNを紹介する。
ネットワーク全体をバイナライズするために,BiMoNNとモルフォロジー演算子との等価性を実証する。
これらは古典的形態学演算子を学習し、医用画像アプリケーションで有望な結果を示すことができる。
論文 参考訳(メタデータ) (2022-04-19T09:26:11Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Comparative evaluation of CNN architectures for Image Caption Generation [1.2183405753834562]
2つの人気のある画像キャプチャ生成フレームワークで17種類の畳み込みニューラルネットワークを評価した。
我々は、畳み込みニューラルネットワークのモデルの複雑さをパラメータ数で測定し、オブジェクト認識タスクにおけるモデルの精度は、必ずしも画像キャプション生成タスクの機能抽出に対する効果と相関するとは限らないことを観察する。
論文 参考訳(メタデータ) (2021-02-23T05:43:54Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - Adaptive Explainable Neural Networks (AxNNs) [8.949704905866888]
我々は、予測性能とモデル解釈可能性の両目標を達成するために、Adaptive Explainable Neural Networks (AxNN) と呼ばれる新しいフレームワークを開発した。
予測性能向上のために,一般化された付加的モデルネットワークと付加的インデックスモデルからなる構造化ニューラルネットワークを構築した。
本稿では,AxNNの結果を主効果と高次相互作用効果に分解する方法を示す。
論文 参考訳(メタデータ) (2020-04-05T23:40:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。