論文の概要: Structural Optimization Makes Graph Classification Simpler and Better
- arxiv url: http://arxiv.org/abs/2109.02027v1
- Date: Sun, 5 Sep 2021 08:54:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 16:55:51.596661
- Title: Structural Optimization Makes Graph Classification Simpler and Better
- Title(参考訳): 構造最適化はグラフの分類をシンプルかつ良くする
- Authors: Junran Wu, Jianhao Li, Yicheng Pan, Ke Xu
- Abstract要約: モデル学習プロセスを簡素化しつつ,グラフ分類性能の向上の可能性を検討する。
構造情報アセスメントの進歩に触発されて、グラフから木をコードするデータサンプルを最適化する。
本稿では,木カーネルと畳み込みネットワークにこのスキームを実装し,グラフ分類を行う。
- 参考スコア(独自算出の注目度): 5.770986723520119
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In deep neural networks, better results can often be obtained by increasing
the complexity of previously developed basic models. However, it is unclear
whether there is a way to boost performance by decreasing the complexity of
such models. Here, based on an optimization method, we investigate the
feasibility of improving graph classification performance while simplifying the
model learning process. Inspired by progress in structural information
assessment, we optimize the given data sample from graphs to encoding trees. In
particular, we minimize the structural entropy of the transformed encoding tree
to decode the key structure underlying a graph. This transformation is denoted
as structural optimization. Furthermore, we propose a novel feature combination
scheme, termed hierarchical reporting, for encoding trees. In this scheme,
features are transferred from leaf nodes to root nodes by following the
hierarchical structures of encoding trees. We then present an implementation of
the scheme in a tree kernel and a convolutional network to perform graph
classification. The tree kernel follows label propagation in the
Weisfeiler-Lehman (WL) subtree kernel, but it has a lower runtime complexity
$O(n)$. The convolutional network is a special implementation of our tree
kernel in the deep learning field and is called Encoding Tree Learning (ETL).
We empirically validate our tree kernel and convolutional network with several
graph classification benchmarks and demonstrate that our methods achieve better
performance and lower computational consumption than competing approaches.
- Abstract(参考訳): ディープニューラルネットワークでは、従来開発された基本モデルの複雑さを増大させることで、よりよい結果が得られることが多い。
しかし、そのようなモデルの複雑さを減らして性能を高める方法があるかどうかは不明である。
そこで本研究では,モデル学習プロセスを簡素化しつつ,グラフ分類性能の向上の可能性を検討する。
構造情報アセスメントの進歩に触発されて、グラフから木をコードするデータサンプルを最適化する。
特に、変換された符号化木の構造エントロピーを最小化し、グラフの基礎となるキー構造をデコードする。
この変換は構造最適化と呼ばれる。
さらに,木をエンコードするための新しい特徴結合スキームである階層的レポートを提案する。
このスキームでは、特徴をエンコーディングツリーの階層構造に従って葉ノードから根ノードに転送する。
次に,木カーネルと畳み込みネットワークにおけるスキームの実装を行い,グラフ分類を行う。
ツリーカーネルはWeisfeiler-Lehman(WL)サブツリーカーネルでラベルの伝搬に従うが、ランタイムの複雑さは$O(n)$である。
The convolutional network is a special implementation of our tree kernel in the Deep Learning field, is called Encoding Tree Learning (ETL)。
木カーネルと畳み込みネットワークをいくつかのグラフ分類ベンチマークで実証的に検証し,本手法が競合する手法よりも優れた性能と少ない計算消費を実現することを示す。
関連論文リスト
- Virtual Node Generation for Node Classification in Sparsely-Labeled Graphs [2.0060301665996016]
本稿では,グラフに付加されたラベル付きノードとして,少数の高品質な合成ノードを注入する新しいノード生成手法を提案する。
一般的なグラフ事前学習(自己教師付き学習)、半教師付き学習、メタ学習法と互換性がある。
実験では、公開されている10のデータセットに対して、14のベースラインに対して統計的に有意なパフォーマンス改善を実証した。
論文 参考訳(メタデータ) (2024-09-12T02:36:44Z) - Rapid and Precise Topological Comparison with Merge Tree Neural Networks [7.443474354626664]
本稿では,Merge Tree Neural Network (MTNN)について紹介する。
まず,グラフの効率的なエンコーダとして出現したグラフニューラルネットワークをトレーニングして,ベクトル空間にマージツリーを埋め込む方法を示す。
次に、木とノードの埋め込みと新しいトポロジカルアテンション機構を統合することにより、類似性の比較をさらに改善する新しいMTNNモデルを定式化する。
論文 参考訳(メタデータ) (2024-04-08T21:26:04Z) - Learning a Decision Tree Algorithm with Transformers [75.96920867382859]
メタ学習によってトレーニングされたトランスフォーマーベースのモデルであるMetaTreeを導入し、強力な決定木を直接生成する。
我々は、多くのデータセットに欲求決定木とグローバルに最適化された決定木の両方を適合させ、MetaTreeを訓練して、強力な一般化性能を実現する木のみを生成する。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - SE-GSL: A General and Effective Graph Structure Learning Framework
through Structural Entropy Optimization [67.28453445927825]
グラフニューラルネットワーク(GNN)は、構造的データ学習のデファクトソリューションである。
既存のグラフ構造学習(GSL)フレームワークには、堅牢性と解釈性がない。
本稿では、構造エントロピーと符号化木に抽象化されたグラフ階層を通して、一般的なGSLフレームワークSE-GSLを提案する。
論文 参考訳(メタデータ) (2023-03-17T05:20:24Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - A Simple yet Effective Method for Graph Classification [7.397201068210497]
学習過程を簡素化しつつ,グラフ分類性能の向上の可能性を検討する。
グラフ上の構造エントロピーにヒントを得て、データサンプルをグラフからコードツリーに変換する。
本稿では,木カーネルと畳み込みネットワークを提案し,グラフ分類の手法を実装した。
論文 参考訳(メタデータ) (2022-06-06T07:24:44Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - Graph Neural Networks with Composite Kernels [60.81504431653264]
カーネル重み付けの観点からノード集約を再解釈する。
本稿では,アグリゲーション方式における特徴類似性を考慮したフレームワークを提案する。
特徴空間における特徴類似性をエンコードするために,元の隣り合うカーネルと学習可能なカーネルの合成として特徴集約を提案する。
論文 参考訳(メタデータ) (2020-05-16T04:44:29Z) - The Tree Ensemble Layer: Differentiability meets Conditional Computation [8.40843862024745]
我々は、異なる決定木(ソフトツリー)のアンサンブルからなるニューラルネットワークのための新しいレイヤを導入する。
異なる木は文学において有望な結果を示すが、典型的には条件計算をサポートしないため、訓練と推論が遅い。
我々は、空間性を利用する特殊前方及び後方伝播アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-02-18T18:05:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。