論文の概要: SAHDL: Sparse Attention Hypergraph Regularized Dictionary Learning
- arxiv url: http://arxiv.org/abs/2010.12416v1
- Date: Fri, 23 Oct 2020 14:07:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 23:19:03.464586
- Title: SAHDL: Sparse Attention Hypergraph Regularized Dictionary Learning
- Title(参考訳): SAHDL: スパースアテンションハイパーグラフ正規化辞書学習
- Authors: Shuai Shao and Rui Xu and Yan-Jiang Wang and Weifeng Liu and Bao-Di
Liu
- Abstract要約: 近年,注目メカニズムはハイパーグラフベースのニューラルネットワークに大きく寄与している。
本稿では,この問題に対処し,辞書学習に組み込むためのハイパーグラフに基づくスパースアテンション機構を提案する。
提案手法の有効性を4つのベンチマークデータセットで示す。
- 参考スコア(独自算出の注目度): 19.63614783778465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, the attention mechanism contributes significantly to
hypergraph based neural networks. However, these methods update the attention
weights with the network propagating. That is to say, this type of attention
mechanism is only suitable for deep learning-based methods while not applicable
to the traditional machine learning approaches. In this paper, we propose a
hypergraph based sparse attention mechanism to tackle this issue and embed it
into dictionary learning. More specifically, we first construct a sparse
attention hypergraph, asset attention weights to samples by employing the
$\ell_1$-norm sparse regularization to mine the high-order relationship among
sample features. Then, we introduce the hypergraph Laplacian operator to
preserve the local structure for subspace transformation in dictionary
learning. Besides, we incorporate the discriminative information into the
hypergraph as the guidance to aggregate samples. Unlike previous works, our
method updates attention weights independently, does not rely on the deep
network. We demonstrate the efficacy of our approach on four benchmark
datasets.
- Abstract(参考訳): 近年,注目メカニズムはハイパーグラフベースのニューラルネットワークに大きく寄与している。
しかし、これらの手法はネットワークの伝搬によって注意重みを更新する。
つまり、このタイプの注意機構は、従来の機械学習アプローチには適用されないが、ディープラーニングベースの手法にのみ適している。
本稿では,この問題に対処し,辞書学習に組み込むためのハイパーグラフに基づくスパースアテンション機構を提案する。
より具体的には、サンプル特徴間の高次関係をマイニングするために$\ell_1$-normのスパース正規化を用いて、サンプルに対するアセットアテンションウェイトであるスパースアテンションハイパーグラフを構築した。
次に,辞書学習における部分空間変換の局所構造を保存するためにハイパーグラフラプラシアン演算子を導入する。
さらに,その識別情報をハイパーグラフに組み込んでサンプルを集約する指導を行う。
先行研究とは異なり,本手法は注意重みを独立に更新し,ディープネットワークに依存しない。
4つのベンチマークデータセットにアプローチの有効性を示す。
関連論文リスト
- GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - Prototype-Enhanced Hypergraph Learning for Heterogeneous Information
Networks [22.564818600608838]
異種情報ネットワークにおけるノード分類のためのプロトタイプ強化ハイパーグラフ学習手法を提案する。
提案手法はノード間の高次関係を捕捉し,メタパスに依存することなく意味情報を抽出する。
論文 参考訳(メタデータ) (2023-09-22T09:51:15Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Deep Hypergraph Structure Learning [34.972686247703024]
高次相関の学習は、近年、ハイパーグラフが広く使われているデータ表現学習において、優位性を示している。
データ間のハイパーグラフ構造の生成方法はまだ難しい課題です。
DeepHGSLはハイパーグラフに基づく表現学習のためのハイパーグラフ構造を最適化するために設計されている。
論文 参考訳(メタデータ) (2022-08-26T10:00:11Z) - Ordered Subgraph Aggregation Networks [19.18478955240166]
グラフ強化グラフニューラルネットワーク(GNN)が登場し、標準(メッセージパス)GNNの表現力を確実に向上させている。
本稿では, 理論的枠組みを導入し, サブグラフ強化GNNの表現性を拡張した。
部分グラフサイズの増加は常に表現力を高め、それらの制限をよりよく理解することを示します。
論文 参考訳(メタデータ) (2022-06-22T15:19:34Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - Weakly Supervised Change Detection Using Guided Anisotropic Difusion [97.43170678509478]
我々は、このようなデータセットを変更検出の文脈で活用するのに役立つ独自のアイデアを提案する。
まず,意味的セグメンテーション結果を改善する誘導異方性拡散(GAD)アルゴリズムを提案する。
次に、変化検出に適した2つの弱い教師付き学習戦略の可能性を示す。
論文 参考訳(メタデータ) (2021-12-31T10:03:47Z) - A nonlinear diffusion method for semi-supervised learning on hypergraphs [30.41251351699783]
ハイパーグラフ半教師付き学習は、わずか数ノードのラベルを与えられたハイパーグラフのすべてのノードにラベルを割り当てる問題である。
ハイパーグラフ構造に従う特徴とラベルの両方を拡散するハイパーグラフ上の非線形拡散過程を開発する。
このアプローチは、複数のハイパーグラフニューラルネットワークよりもはるかに正確で、トレーニングに要する時間も少なくなります。
論文 参考訳(メタデータ) (2021-03-27T09:54:16Z) - Directed hypergraph neural network [0.0]
本稿では,指向性ハイパーグラフのための新しいニューラルネットワーク手法を提案する。
実験で使用される2つのデータセットは、coraとciteseerデータセットである。
論文 参考訳(メタデータ) (2020-08-09T01:39:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。