論文の概要: Multidimensional Hopfield Networks for clustering
- arxiv url: http://arxiv.org/abs/2310.07239v1
- Date: Wed, 11 Oct 2023 07:07:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 00:05:26.184994
- Title: Multidimensional Hopfield Networks for clustering
- Title(参考訳): クラスタリングのための多次元ホップフィールドネットワーク
- Authors: Gergely Stomfai, {\L}ukasz Sienkiewicz, Barbara Rychalska
- Abstract要約: 本稿では,ホップフィールドネットワークの自然な一般化である多次元ホップフィールドネットワーク(DHN)について述べる。
本研究では, 特定の活性化機能を持つDHNに着目し, エネルギー機能を付与する。
これらのDHNは有限時間で収束し、局所最小カットのグラフクラスタリングを見つけることを目的とした欲求的手法と等価である。
- 参考スコア(独自算出の注目度): 2.3458494844388786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the Multidimensional Hopfield Network (DHN), a natural
generalisation of the Hopfield Network. In our theoretical investigations we
focus on DHNs with a certain activation function and provide energy functions
for them. We conclude that these DHNs are convergent in finite time, and are
equivalent to greedy methods that aim to find graph clusterings of locally
minimal cuts. We also show that the general framework of DHNs encapsulates
several previously known algorithms used for generating graph embeddings and
clusterings. Namely, the Cleora graph embedding algorithm, the Louvain method,
and the Newmans method can be cast as DHNs with appropriate activation function
and update rule. Motivated by these findings we provide a generalisation of
Newmans method to the multidimensional case.
- Abstract(参考訳): 本稿では,ホップフィールドネットワークの自然な一般化である多次元ホップフィールドネットワーク(DHN)を提案する。
理論的研究では、特定の活性化関数を持つDHNに着目し、それらのエネルギー関数を提供する。
これらのDHNは有限時間で収束し、局所最小カットのグラフクラスタリングを見つけることを目的とした欲求的手法と等価である。
また、dhnsの汎用フレームワークは、グラフ埋め込みとクラスタリングを生成するために既に知られているいくつかのアルゴリズムをカプセル化する。
すなわち、cleoraグラフ埋め込みアルゴリズム、louvainメソッド、newmansメソッドを適切なアクティベーション関数と更新ルールを備えたdhnとしてキャストすることができる。
これらの結果により,多次元の場合に対してニューマン法を一般化する。
関連論文リスト
- Ensemble Quadratic Assignment Network for Graph Matching [52.20001802006391]
グラフマッチングはコンピュータビジョンやパターン認識において一般的に用いられる技法である。
最近のデータ駆動型アプローチは、グラフマッチングの精度を著しく改善した。
データ駆動手法と従来の手法の利点を組み合わせたグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-11T06:34:05Z) - VC dimension of Graph Neural Networks with Pfaffian activation functions [4.141514895639094]
グラフニューラルネットワーク(GNN)は、近年、広範囲のグラフドメインでタスクを学習する強力なツールとして登場している。
我々の研究の目的は、GNNのVC次元に関するこの分析を、シグモイドや双曲タンジェントといった他のよく使われる活性化関数に拡張することである。
論文 参考訳(メタデータ) (2024-01-22T21:11:22Z) - Large Scale Training of Graph Neural Networks for Optimal Markov-Chain Partitioning Using the Kemeny Constant [1.8606770727950463]
我々は,マルコフ連鎖のグラフ分割問題に対処するGNNアーキテクチャをいくつか提案する。
このアプローチは、提案されたパーティショニングがケメニー定数をどの程度変更するかを最小化することを目的としている。
線形層を持つグラフSAGEベースのGNNが、この文脈でより大きく、より表現力に富んだアテンションベースモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-12-22T17:19:50Z) - Fisher Information Embedding for Node and Graph Learning [5.263910852465186]
本稿では,グラフのための新しい注目型ノード埋め込みフレームワークを提案する。
我々のフレームワークはノード周辺のサブグラフの多重集合のための階層的カーネル上に構築されている。
埋め込みの一般化性と表現性に関する理論的知見を提供する。
論文 参考訳(メタデータ) (2023-05-12T16:15:30Z) - Efficient Graph Field Integrators Meet Point Clouds [59.27295475120132]
点雲を符号化するグラフ上での効率的な場積分のためのアルゴリズムを2種類提案する。
第1のクラスであるSeparatorFactorization(SF)は、ポイントメッシュグラフの有界属を利用するが、第2のクラスであるRFDiffusion(RFD)は、ポイントクラウドの一般的なepsilon-nearest-neighborグラフ表現を使用する。
論文 参考訳(メタデータ) (2023-02-02T08:33:36Z) - On Feature Learning in Neural Networks with Global Convergence
Guarantees [49.870593940818715]
勾配流(GF)を用いた広帯域ニューラルネットワーク(NN)の最適化について検討する。
入力次元がトレーニングセットのサイズ以下である場合、トレーニング損失はGFの下での線形速度で0に収束することを示す。
また、ニューラル・タンジェント・カーネル(NTK)システムとは異なり、我々の多層モデルは特徴学習を示し、NTKモデルよりも優れた一般化性能が得られることを実証的に示す。
論文 参考訳(メタデータ) (2022-04-22T15:56:43Z) - Action Recognition with Kernel-based Graph Convolutional Networks [14.924672048447338]
learning graph convolutional networks(gcns)は、ディープラーニングを任意の非正規ドメインに一般化することを目的としている。
再生カーネルヒルベルト空間(RKHS)における空間グラフ畳み込みを実現する新しいGCNフレームワークを提案する。
gcnモデルの特長は、学習グラフフィルタの受容野のノードと入力グラフのノードを明示的に認識せずに畳み込みを実現する能力にも関係しています。
論文 参考訳(メタデータ) (2020-12-28T11:02:51Z) - Graph Neural Networks for Motion Planning [108.51253840181677]
低次元問題に対する高密度固定グラフ上のGNNと高次元問題に対するサンプリングベースGNNの2つの手法を提案する。
RRT(Rapidly-Exploring Random Trees)におけるクリティカルノードの特定やサンプリング分布の学習といった計画上の問題にGNNが取り組む能力について検討する。
臨界サンプリング、振り子、6つのDoFロボットアームによる実験では、GNNは従来の分析手法の改善だけでなく、完全に接続されたニューラルネットワークや畳み込みニューラルネットワークを用いた学習アプローチも示している。
論文 参考訳(メタデータ) (2020-06-11T08:19:06Z) - Deep Constraint-based Propagation in Graph Neural Networks [15.27048776159285]
本稿では,ラグランジアンフレームワークにおける制約付き最適化に基づくグラフニューラルネットワーク(GNN)の学習手法を提案する。
我々の計算構造は、重み、ノード状態変数、ラグランジュ乗算器からなる随伴空間におけるラグランジアンのサドル点を探索する。
実験により,提案手法はいくつかのベンチマークで一般的なモデルと比較された。
論文 参考訳(メタデータ) (2020-05-05T16:50:59Z) - Spectral Graph Attention Network with Fast Eigen-approximation [103.93113062682633]
スペクトルグラフ注意ネットワーク(SpGAT)は、重み付きフィルタとグラフウェーブレットベースに関する異なる周波数成分の表現を学習する。
固有分解による計算コストを削減するために,高速近似変種SpGAT-Chebyを提案する。
半教師付きノード分類タスクにおけるSpGATとSpGAT-Chebyの性能を徹底的に評価する。
論文 参考訳(メタデータ) (2020-03-16T21:49:34Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。