論文の概要: SymNMF-Net for The Symmetric NMF Problem
- arxiv url: http://arxiv.org/abs/2205.13214v1
- Date: Thu, 26 May 2022 08:17:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 13:20:15.655952
- Title: SymNMF-Net for The Symmetric NMF Problem
- Title(参考訳): 対称NMF問題に対するSymNMF-Net
- Authors: Mingjie Li, Hao Kong, Zhouchen Lin
- Abstract要約: 我々は,Symmetric NMF問題に対するSymNMF-Netと呼ばれるニューラルネットワークを提案する。
各ブロックの推測は最適化の単一イテレーションに対応することを示す。
実世界のデータセットに関する実証的な結果は、我々のSymNMF-Netの優位性を示している。
- 参考スコア(独自算出の注目度): 62.44067422984995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, many works have demonstrated that Symmetric Non-negative Matrix
Factorization~(SymNMF) enjoys a great superiority for various clustering tasks.
Although the state-of-the-art algorithms for SymNMF perform well on synthetic
data, they cannot consistently obtain satisfactory results with desirable
properties and may fail on real-world tasks like clustering. Considering the
flexibility and strong representation ability of the neural network, in this
paper, we propose a neural network called SymNMF-Net for the Symmetric NMF
problem to overcome the shortcomings of traditional optimization algorithms.
Each block of SymNMF-Net is a differentiable architecture with an inversion
layer, a linear layer and ReLU, which are inspired by a traditional update
scheme for SymNMF. We show that the inference of each block corresponds to a
single iteration of the optimization. Furthermore, we analyze the constraints
of the inversion layer to ensure the output stability of the network to a
certain extent. Empirical results on real-world datasets demonstrate the
superiority of our SymNMF-Net and confirm the sufficiency of our theoretical
analysis.
- Abstract(参考訳): 近年、対称非負行列分解(symnmf)は様々なクラスタリングタスクにおいて非常に優れていることが多くの研究で示されている。
symnmfの最先端アルゴリズムは合成データでうまく機能するが、望ましい特性を持つ満足な結果を得ることができず、クラスタリングのような実世界のタスクでは失敗する可能性がある。
本稿では,ニューラルネットワークの柔軟性と強力な表現能力を考慮して,従来の最適化アルゴリズムの欠点を克服するために,対称nmf問題に対して symnmf-net と呼ばれるニューラルネットワークを提案する。
SymNMF-Netの各ブロックは、SymNMFの伝統的な更新スキームにインスパイアされた反転層、線形層、ReLUを持つ、微分可能なアーキテクチャである。
各ブロックの推論は最適化の1回の反復に対応することを示す。
さらに、インバージョン層の制約を分析し、ネットワークの出力安定性をある程度確保する。
実世界のデータセットにおける実証的な結果は、我々のSymNMF-Netの優位性を示し、理論解析の十分性を確認する。
関連論文リスト
- Multilevel CNNs for Parametric PDEs based on Adaptive Finite Elements [0.0]
高次元パラメータ依存偏微分方程式の多値性を利用するニューラルネットワークアーキテクチャが提案されている。
ネットワークは適応的に洗練された有限要素メッシュのデータで訓練される。
適応型マルチレベルスキームに対して完全収束と複雑性解析を行う。
論文 参考訳(メタデータ) (2024-08-20T13:32:11Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - An NMF-Based Building Block for Interpretable Neural Networks With
Continual Learning [0.8158530638728501]
既存の学習方法は、解釈可能性と予測性能のバランスをとるのに苦労することが多い。
我々のアプローチは、NMFに基づくビルディングブロックを使用することで、これらの2つの側面のバランスを改善することを目的としています。
論文 参考訳(メタデータ) (2023-11-20T02:00:33Z) - A Provable Splitting Approach for Symmetric Nonnegative Matrix
Factorization [27.766572707447352]
対称NMFに対して高速なアルゴリズムを設計することは、非対称なアルゴリズムほど簡単ではないことを示す。
まず、決定変数を分割し、対称NMFをペナル化非対称に変換する。
次に、ペナル化された非対称再構成の解が元の対称NMFへの解を返すことを示す。
論文 参考訳(メタデータ) (2023-01-25T10:21:59Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Influence Estimation and Maximization via Neural Mean-Field Dynamics [60.91291234832546]
本稿では,ニューラル平均場(NMF)ダイナミクスを用いた新しい学習フレームワークを提案する。
我々のフレームワークは拡散ネットワークの構造とノード感染確率の進化を同時に学習することができる。
論文 参考訳(メタデータ) (2021-06-03T00:02:05Z) - Self-supervised Symmetric Nonnegative Matrix Factorization [82.59905231819685]
シンメトリー非負係数行列(SNMF)は、データクラスタリングの強力な方法であることを示した。
より良いクラスタリング結果を求めるアンサンブルクラスタリングにインスパイアされた,自己監視型SNMF(S$3$NMF)を提案する。
SNMFのコード特性に対する感度を、追加情報に頼らずに活用しています。
論文 参考訳(メタデータ) (2021-03-02T12:47:40Z) - Regularizing Recurrent Neural Networks via Sequence Mixup [7.036759195546171]
我々は、元々フィードフォワードニューラルネットワークのために提案された一連の有望な正規化手法を拡張した。
提案手法は,単純なニューラルネットワークアーキテクチャの性能を生かしながら,複雑性の実装が容易である。
論文 参考訳(メタデータ) (2020-11-27T05:43:40Z) - Kernel-Based Smoothness Analysis of Residual Networks [85.20737467304994]
ResNets(Residual Networks)は、これらの強力なモダンアーキテクチャの中でも際立っている。
本稿では,2つのモデル,すなわちResNetsが勾配よりもスムーズな傾向を示す。
論文 参考訳(メタデータ) (2020-09-21T16:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。