論文の概要: Joint Feature and Differentiable $ k $-NN Graph Learning using Dirichlet
Energy
- arxiv url: http://arxiv.org/abs/2305.12396v2
- Date: Thu, 9 Nov 2023 13:01:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 18:24:16.495206
- Title: Joint Feature and Differentiable $ k $-NN Graph Learning using Dirichlet
Energy
- Title(参考訳): ディリクレエネルギーを用いた$k $-NNグラフの連成特徴と微分可能学習
- Authors: Lei Xu, Lei Chen, Rong Wang, Feiping Nie, Xuelong Li
- Abstract要約: 特徴選択と識別可能な$k $-NNグラフ学習を同時に行うディープFS法を提案する。
我々は、ニューラルネットワークで$ k $-NNグラフを学習する際の非微分可能性問題に対処するために、最適輸送理論を用いる。
本モデルの有効性を,合成データセットと実世界のデータセットの両方で広範な実験により検証する。
- 参考スコア(独自算出の注目度): 103.74640329539389
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature selection (FS) plays an important role in machine learning, which
extracts important features and accelerates the learning process. In this
paper, we propose a deep FS method that simultaneously conducts feature
selection and differentiable $ k $-NN graph learning based on the Dirichlet
Energy. The Dirichlet Energy identifies important features by measuring their
smoothness on the graph structure, and facilitates the learning of a new graph
that reflects the inherent structure in new feature subspace. We employ Optimal
Transport theory to address the non-differentiability issue of learning $ k
$-NN graphs in neural networks, which theoretically makes our method applicable
to other graph neural networks for dynamic graph learning. Furthermore, the
proposed framework is interpretable, since all modules are designed
algorithmically. We validate the effectiveness of our model with extensive
experiments on both synthetic and real-world datasets.
- Abstract(参考訳): 特徴選択(FS)は、重要な特徴を抽出し、学習プロセスを加速する機械学習において重要な役割を果たす。
本稿では,ディリクレエネルギーに基づく特徴選択と微分可能な$k$-nnグラフ学習を同時に行う深層fs法を提案する。
ディリクレエネルギーは、グラフ構造上の滑らかさを測定することによって重要な特徴を特定し、新しい特徴部分空間に固有の構造を反映した新しいグラフの学習を容易にする。
我々は、ニューラルネットワークにおけるk$-nnグラフの学習における非微分可能性問題に対処するために最適な輸送理論を用い、理論的には、動的グラフ学習のための他のグラフニューラルネットワークに適用できる。
さらに、全てのモジュールがアルゴリズムで設計されているため、提案するフレームワークは解釈可能である。
本モデルの有効性を,合成データセットと実世界のデータセットの両方で広範な実験により検証する。
関連論文リスト
- Learning From Graph-Structured Data: Addressing Design Issues and Exploring Practical Applications in Graph Representation Learning [2.492884361833709]
グラフ表現学習とグラフニューラルネットワーク(GNN)の最近の進歩を概観する。
グラフ構造化データを扱うように設計されたGNNは、複雑な関係情報から洞察と予測を引き出すのに長けている。
我々の研究は、GNNの能力を掘り下げ、その基礎設計と現実の課題に対処するための応用について調べている。
論文 参考訳(メタデータ) (2024-11-09T19:10:33Z) - Graph Reasoning Networks [9.18586425686959]
Graph Reasoning Networks (GRNs) は、グラフ表現と学習したグラフ表現の長所と、微分可能満足度解法に基づく推論モジュールを組み合わせるための新しいアプローチである。
実世界のデータセットの結果は、GNNに匹敵するパフォーマンスを示している。
合成データセットの実験は、新しく提案された手法の可能性を示している。
論文 参考訳(メタデータ) (2024-07-08T10:53:49Z) - Enhancing Graph Representation Learning with Attention-Driven Spiking Neural Networks [5.627287101959473]
グラフ学習タスクのための従来のニューラルネットワークに代わる有望な代替手段として、スパイキングニューラルネットワーク(SNN)が登場している。
グラフ表現学習を改善するために,注意機構をSNNと統合した新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-25T12:15:10Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - Improving Graph Neural Networks with Simple Architecture Design [7.057970273958933]
グラフニューラルネットワークの重要な設計戦略をいくつか紹介する。
簡便で浅いモデルである特徴選択グラフニューラルネットワーク(FSGNN)を紹介します。
提案手法は,他のGNNモデルよりも優れており,ノード分類タスクの精度が最大64%向上していることを示す。
論文 参考訳(メタデータ) (2021-05-17T06:46:01Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - Transfer Learning of Graph Neural Networks with Ego-graph Information
Maximization [41.867290324754094]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションにおいて優れたパフォーマンスを実現しているが、大規模グラフのトレーニングには費用がかかる。
本研究では,GNNの伝達学習のための理論的基盤と実用的有用な枠組みを確立する。
論文 参考訳(メタデータ) (2020-09-11T02:31:18Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。