論文の概要: Morphological Perceptron with Competitive Layer: Training Using Convex-Concave Procedure
- arxiv url: http://arxiv.org/abs/2509.05697v1
- Date: Sat, 06 Sep 2025 12:22:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.655807
- Title: Morphological Perceptron with Competitive Layer: Training Using Convex-Concave Procedure
- Title(参考訳): 競合層を有する形態知覚論:凸凹法を用いた訓練
- Authors: Iara Cunha, Marcos Eduardo Valle,
- Abstract要約: モルフォロジーパーセプトロン(英: morphological perceptron)は、ニューロンが数学的形態学から基本的な操作を行う多層フィードフォワードニューラルネットワークである。
モルフォロジー作用素の微分不可能性は、そのようなネットワークのトレーニングには適さない勾配に基づく最適化手法を描画する。
本稿では,MPCL ネットワークのトレーニングにconvex-concave procedure (CCP) を用いることを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A morphological perceptron is a multilayer feedforward neural network in which neurons perform elementary operations from mathematical morphology. For multiclass classification tasks, a morphological perceptron with a competitive layer (MPCL) is obtained by integrating a winner-take-all output layer into the standard morphological architecture. The non-differentiability of morphological operators renders gradient-based optimization methods unsuitable for training such networks. Consequently, alternative strategies that do not depend on gradient information are commonly adopted. This paper proposes the use of the convex-concave procedure (CCP) for training MPCL networks. The training problem is formulated as a difference of convex (DC) functions and solved iteratively using CCP, resulting in a sequence of linear programming subproblems. Computational experiments demonstrate the effectiveness of the proposed training method in addressing classification tasks with MPCL networks.
- Abstract(参考訳): モルフォロジーパーセプトロン(英: morphological perceptron)は、ニューロンが数学的形態学から基本的な操作を行う多層フィードフォワードニューラルネットワークである。
多クラス分類タスクでは、競争層(MPCL)を持つモルフォロジーパーセプトロンが、勝者のすべての出力層を標準モルフォロジーアーキテクチャに統合することによって得られる。
モルフォロジー作用素の微分不可能性は、そのようなネットワークのトレーニングには適さない勾配に基づく最適化手法を描画する。
したがって、勾配情報に依存しない代替戦略が一般的である。
本稿では,MPCLネットワークのトレーニングにconvex-concave procedure (CCP) を用いることを提案する。
トレーニング問題は凸関数(DC)の差分として定式化され、CCPを用いて反復的に解かれる。
計算機実験により,MPCLネットワークを用いた分類課題に対処する学習手法の有効性が示された。
関連論文リスト
- Classical Neural Networks on Quantum Devices via Tensor Network Disentanglers: A Case Study in Image Classification [0.0]
量子コンピュータ上での古典的事前学習ニューラルネットワークのボトルネック層実装の問題に対処する。
本稿では,MPOアンタングリングのための2つの補完アルゴリズムを提案する。
MNIST と CIFAR-10 画像分類のための単純な古典的ニューラルネットワークの概念変換による検証を行った。
論文 参考訳(メタデータ) (2025-09-08T13:08:37Z) - Randomized Forward Mode Gradient for Spiking Neural Networks in Scientific Machine Learning [4.178826560825283]
スパイキングニューラルネットワーク(SNN)は、ディープニューラルネットワークの階層的学習能力とスパイクベースの計算のエネルギー効率を組み合わせた、機械学習における有望なアプローチである。
SNNの伝統的なエンドツーエンドトレーニングは、しばしばバックプロパゲーションに基づいており、重み更新はチェーンルールによって計算された勾配から導かれる。
この手法は, 生体適合性に限界があり, ニューロモルフィックハードウェアの非効率性のため, 課題に遭遇する。
本研究では,SNNの代替トレーニング手法を導入する。後方伝搬の代わりに,前方モード内での重量摂動手法を活用する。
論文 参考訳(メタデータ) (2024-11-11T15:20:54Z) - Adaptive Error-Bounded Hierarchical Matrices for Efficient Neural Network Compression [0.0]
本稿では,物理インフォームドニューラルネットワーク(PINN)に適した動的,エラーバウンドな階層行列 (H-matrix) 圧縮手法を提案する。
提案手法は,ニューラル・タンジェント・カーネル(NTK)の本質的性質を保ちながら,大規模物理モデルにおける計算複雑性とメモリ要求を低減させる。
実験により, この手法は, 高精度を維持し, 一般化能力を向上させることにより, Singular Value Decomposition (SVD) やプルーニング, 量子化などの従来の圧縮手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2024-09-11T05:55:51Z) - Concurrent Training and Layer Pruning of Deep Neural Networks [0.0]
トレーニングの初期段階において、ニューラルネットワークの無関係な層を特定し、排除できるアルゴリズムを提案する。
本研究では,非線形区間を切断した後にネットワークを流れる情報の流れを,非線形ネットワーク区間の周囲の残差接続を用いた構造を用いる。
論文 参考訳(メタデータ) (2024-06-06T23:19:57Z) - Training Single-Layer Morphological Perceptron Using Convex-Concave
Programming [0.4895118383237099]
コンベックス・コンケーブ計画法(DCCP)を用いた単層型パーセプトロンの訓練について検討する。
リタロポロスとマラゴスによって提案された既存の単層型形態素パーセプトロン(SLMP)モデルを組み合わせたK-DDCCPを提案する。
実験により,K-DDCCPアルゴリズムによる二項分類問題の解法の有効性が確認された。
論文 参考訳(メタデータ) (2024-01-04T14:34:58Z) - Transformers as Statisticians: Provable In-Context Learning with
In-Context Algorithm Selection [88.23337313766353]
この研究はまず、変換器がICLを実行するための包括的な統計理論を提供する。
コンテクストにおいて、トランスフォーマーは、幅広い種類の標準機械学習アルゴリズムを実装可能であることを示す。
エンフィングル変換器は、異なるベースICLアルゴリズムを適応的に選択することができる。
論文 参考訳(メタデータ) (2023-06-07T17:59:31Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Cogradient Descent for Dependable Learning [64.02052988844301]
双線形最適化問題に対処するために,CoGDアルゴリズムに基づく信頼度の高い学習法を提案する。
CoGDは、ある変数がスパーシティ制約を持つ場合の双線形問題を解くために導入された。
また、特徴と重みの関連を分解するためにも使用できるため、畳み込みニューラルネットワーク(CNN)をより良く訓練するための我々の手法をさらに一般化することができる。
論文 参考訳(メタデータ) (2021-06-20T04:28:20Z) - Progressive Spatio-Temporal Graph Convolutional Network for
Skeleton-Based Human Action Recognition [97.14064057840089]
本稿では,グラフ畳み込みネットワークのためのコンパクトで問題固有のネットワークを,段階的に自動的に見つける手法を提案する。
骨格に基づく人体行動認識のための2つのデータセットの実験結果から,提案手法は競争力あるいはより優れた分類性能を有することが示された。
論文 参考訳(メタデータ) (2020-11-11T09:57:49Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。