論文の概要: Joint Feature and Differentiable $ k $-NN Graph Learning using Dirichlet
Energy
- arxiv url: http://arxiv.org/abs/2305.12396v2
- Date: Thu, 9 Nov 2023 13:01:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 18:24:16.495206
- Title: Joint Feature and Differentiable $ k $-NN Graph Learning using Dirichlet
Energy
- Title(参考訳): ディリクレエネルギーを用いた$k $-NNグラフの連成特徴と微分可能学習
- Authors: Lei Xu, Lei Chen, Rong Wang, Feiping Nie, Xuelong Li
- Abstract要約: 特徴選択と識別可能な$k $-NNグラフ学習を同時に行うディープFS法を提案する。
我々は、ニューラルネットワークで$ k $-NNグラフを学習する際の非微分可能性問題に対処するために、最適輸送理論を用いる。
本モデルの有効性を,合成データセットと実世界のデータセットの両方で広範な実験により検証する。
- 参考スコア(独自算出の注目度): 103.74640329539389
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature selection (FS) plays an important role in machine learning, which
extracts important features and accelerates the learning process. In this
paper, we propose a deep FS method that simultaneously conducts feature
selection and differentiable $ k $-NN graph learning based on the Dirichlet
Energy. The Dirichlet Energy identifies important features by measuring their
smoothness on the graph structure, and facilitates the learning of a new graph
that reflects the inherent structure in new feature subspace. We employ Optimal
Transport theory to address the non-differentiability issue of learning $ k
$-NN graphs in neural networks, which theoretically makes our method applicable
to other graph neural networks for dynamic graph learning. Furthermore, the
proposed framework is interpretable, since all modules are designed
algorithmically. We validate the effectiveness of our model with extensive
experiments on both synthetic and real-world datasets.
- Abstract(参考訳): 特徴選択(FS)は、重要な特徴を抽出し、学習プロセスを加速する機械学習において重要な役割を果たす。
本稿では,ディリクレエネルギーに基づく特徴選択と微分可能な$k$-nnグラフ学習を同時に行う深層fs法を提案する。
ディリクレエネルギーは、グラフ構造上の滑らかさを測定することによって重要な特徴を特定し、新しい特徴部分空間に固有の構造を反映した新しいグラフの学習を容易にする。
我々は、ニューラルネットワークにおけるk$-nnグラフの学習における非微分可能性問題に対処するために最適な輸送理論を用い、理論的には、動的グラフ学習のための他のグラフニューラルネットワークに適用できる。
さらに、全てのモジュールがアルゴリズムで設計されているため、提案するフレームワークは解釈可能である。
本モデルの有効性を,合成データセットと実世界のデータセットの両方で広範な実験により検証する。
関連論文リスト
- How Graph Neural Networks Learn: Lessons from Training Dynamics [86.27589054492427]
グラフニューラルネットワーク(GNN)の関数空間におけるトレーニングダイナミクスについて検討する。
勾配降下によるGNNの最適化は暗黙的にグラフ構造を利用して学習した関数を更新する。
グラフ構造を用いて学習した関数を明示的に更新することで得られる単純で効率的な非パラメトリックアルゴリズムは、非線形GNNと一貫して競合することを示す。
論文 参考訳(メタデータ) (2023-10-08T10:19:56Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - Spiking Graph Convolutional Networks [19.36064180392385]
SpikingGCNは、GCNの埋め込みとSNNの生体忠実性特性を統合することを目的としたエンドツーエンドフレームワークである。
ニューロモルフィックチップ上でのスパイキングGCNは、グラフデータ解析にエネルギー効率の明確な利点をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-05T16:44:36Z) - Improving Graph Neural Networks with Simple Architecture Design [7.057970273958933]
グラフニューラルネットワークの重要な設計戦略をいくつか紹介する。
簡便で浅いモデルである特徴選択グラフニューラルネットワーク(FSGNN)を紹介します。
提案手法は,他のGNNモデルよりも優れており,ノード分類タスクの精度が最大64%向上していることを示す。
論文 参考訳(メタデータ) (2021-05-17T06:46:01Z) - A Light Heterogeneous Graph Collaborative Filtering Model using Textual
Information [16.73333758538986]
我々は,高度自然言語処理(NLP)モデルを用いて,関連性があり,アクセスしやすいテキスト情報を利用する。
ヘテロジニアスグラフ上のRGCN(RGCN,リレーショナルグラフ畳み込みネットワーク)協調フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2020-10-04T11:10:37Z) - Transfer Learning of Graph Neural Networks with Ego-graph Information
Maximization [41.867290324754094]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションにおいて優れたパフォーマンスを実現しているが、大規模グラフのトレーニングには費用がかかる。
本研究では,GNNの伝達学習のための理論的基盤と実用的有用な枠組みを確立する。
論文 参考訳(メタデータ) (2020-09-11T02:31:18Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。