論文の概要: Logarithmic Morphological Neural Nets robust to lighting variations
- arxiv url: http://arxiv.org/abs/2204.09319v1
- Date: Wed, 20 Apr 2022 08:54:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 15:39:32.825950
- Title: Logarithmic Morphological Neural Nets robust to lighting variations
- Title(参考訳): 光の変動にロバストな対数形態的ニューラルネット
- Authors: Guillaume Noyel (LHC), Emile Barbier--Renard (LHC), Michel Jourlin
(LHC), Thierry Fournel (LHC)
- Abstract要約: 照明変動に対するロバスト性を有するモルフォロジーニューラルネットワークを提案する。
これは対数数学の数学的形態学の最近の枠組みに基づいている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Morphological neural networks allow to learn the weights of a structuring
function knowing the desired output image. However, those networks are not
intrinsically robust to lighting variations in images with an optical cause,
such as a change of light intensity. In this paper, we introduce a
morphological neural network which possesses such a robustness to lighting
variations. It is based on the recent framework of Logarithmic Mathematical
Morphology (LMM), i.e. Mathematical Morphology defined with the Logarithmic
Image Processing (LIP) model. This model has a LIP additive law which simulates
in images a variation of the light intensity. We especially learn the
structuring function of a LMM operator robust to those variations, namely : the
map of LIP-additive Asplund distances. Results in images show that our neural
network verifies the required property.
- Abstract(参考訳): 形態的ニューラルネットワークは、所望の出力画像を知る構造関数の重みを学習することができる。
しかし、これらのネットワークは光強度の変化などの光学的原因のある画像の光の変動に対して本質的に堅牢ではない。
本稿では,照明変動に対するロバスト性を有するモルフォロジーニューラルネットワークを提案する。
これは最近の対数数学的形態学(lmm)の枠組み、すなわち対数画像処理(lip)モデルで定義される数学的形態学に基づいている。
このモデルは、光強度の変動を画像でシミュレートするLIP加算法則を持つ。
特にこれらの変動に頑健なLMM演算子の構造関数、すなわちLIP-加法的アスプルンド距離の写像を学習する。
画像の結果,ニューラルネットワークが要求する特性を検証することがわかった。
関連論文リスト
- Training Hybrid Neural Networks with Multimode Optical Nonlinearities Using Digital Twins [2.8479179029634984]
大規模非線形変換を行う多モードファイバに超短パルス伝搬を導入する。
ハイブリッドアーキテクチャのトレーニングは、光学系を微分的に近似するニューラルモデルによって達成される。
実験により,最先端の画像分類精度とシミュレーション精度が得られた。
論文 参考訳(メタデータ) (2025-01-14T10:35:18Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - An Algorithm to Train Unrestricted Sequential Discrete Morphological
Neural Networks [0.0]
本稿では,一般W-演算子の構成によりアーキテクチャが与えられる非制限順序DMNNを学習するアルゴリズムを提案する。
このアルゴリズムを実例で説明する。
論文 参考訳(メタデータ) (2023-10-06T20:55:05Z) - Logarithmic Mathematical Morphology: theory and applications [0.0]
グレーレベル関数の数学的形態学では、構造関数は通常の加法則で画像にまとめられる。
新しい枠組みは、構造関数の振幅が画像振幅に応じて変化する付加法則で定義される。
新しいフレームワークは対数数学的形態学 (LMM) と呼ばれ、そのような光の変動に頑健な作用素の定義を可能にする。
論文 参考訳(メタデータ) (2023-09-05T07:45:35Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
ニューラルネットワークのような予測器のための新しいトレーニング原理であるLFP(Layer-wise Feedback Propagation)を提案する。
LFPは、与えられたタスクの解決へのそれぞれの貢献に基づいて、個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分を補強し,有害な部分を弱めるという欲求的アプローチを実現する。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Optical Neural Ordinary Differential Equations [44.97261923694945]
隠れ層の連続力学を光学的ODE解法でパラメータ化する光学的ニューラル常微分方程式(ON-ODE)アーキテクチャを提案する。
On-ODEは、PNNとフォトニックインテグレータと光フィードバックループとから構成されており、残留ニューラルネットワーク(ResNet)と、チップ領域占有率を効果的に低減したリカレントニューラルネットワークを表現するように構成できる。
論文 参考訳(メタデータ) (2022-09-26T04:04:02Z) - All-optical graph representation learning using integrated diffractive
photonic computing units [51.15389025760809]
フォトニックニューラルネットワークは、電子の代わりに光子を用いて脳にインスパイアされた計算を行う。
我々は、DGNN(diffractive graph neural network)と呼ばれる全光グラフ表現学習アーキテクチャを提案する。
ベンチマークデータベースを用いたノードおよびグラフレベルの分類タスクにおけるDGNN抽出機能の利用を実演し、優れた性能を実現する。
論文 参考訳(メタデータ) (2022-04-23T02:29:48Z) - Modeling the Nonsmoothness of Modern Neural Networks [35.93486244163653]
ピークの大きさの和(SMP)という特徴を用いて不滑らかさを定量化する。
この非平滑性機能は、ニューラルネットワークの回帰ベースのアプリケーションのためのフォレンジックツールとして利用される可能性があると考えます。
論文 参考訳(メタデータ) (2021-03-26T20:55:19Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。