論文の概要: SparRL: Graph Sparsification via Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2112.01565v1
- Date: Thu, 2 Dec 2021 19:20:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 07:56:49.564512
- Title: SparRL: Graph Sparsification via Deep Reinforcement Learning
- Title(参考訳): SparRL: 深層強化学習によるグラフスカラー化
- Authors: Ryan Wickman, Xiaofei Zhang, Weizi Li
- Abstract要約: グラフスペーシフィケーション(Graph Sparsification)は、類似構造のエッジ再現グラフが好まれるデータ削減に関するものである。
グラフスカラー化のための汎用的で効果的な強化学習基盤であるSparRLを提案する。
- 参考スコア(独自算出の注目度): 5.016829322655594
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph sparsification concerns data reduction where an edge-reduced graph of a
similar structure is preferred. Existing methods are mostly sampling-based,
which introduce high computation complexity in general and lack of flexibility
for a different reduction objective. We present SparRL, the first general and
effective reinforcement learning-based framework for graph sparsification.
SparRL can easily adapt to different reduction goals and promise
graph-size-independent complexity. Extensive experiments show that SparRL
outperforms all prevailing sparsification methods in producing high-quality
sparsified graphs concerning a variety of objectives.
- Abstract(参考訳): グラフスパーシフィケーションは、同様の構造のエッジ縮小グラフが好ましいデータ削減に関するものだ。
既存の手法は主にサンプリングベースであり、一般に高い計算複雑性と異なる還元目標に対する柔軟性の欠如をもたらす。
グラフスパーシフィケーションのための,最初の汎用的かつ効果的な強化学習ベースフレームワークであるsparrlを提案する。
SparRLは、異なる還元目標に容易に適応でき、グラフサイズに依存しない複雑さを約束できる。
広範な実験により、sparrlは、様々な目的に関する高品質のスパーシフィケーショングラフを作成する際に、一般的なスパーシフィケーション手法をすべて上回っていることが示されている。
関連論文リスト
- Unifews: Unified Entry-Wise Sparsification for Efficient Graph Neural Network [10.556366638048384]
グラフニューラルネットワーク(GNN)は、様々なグラフ学習タスクにおいて有望な性能を示すが、リソース集約型計算のコストがかかる。
従来の研究では,グラフレベルやネットワークレベルのスペーシフィケーション技術を活用して,計算予算の削減を試みた。
個々の行列要素を考慮したエントリワイズ方式で2つの演算を統一するUnifewsを提案する。
論文 参考訳(メタデータ) (2024-03-20T03:07:30Z) - Two Trades is not Baffled: Condensing Graph via Crafting Rational Gradient Matching [50.30124426442228]
大規模グラフの学習はグラフ表現学習において顕著な成果を上げてきたが、そのコストと記憶力の増大が懸念されている。
そこで我々は,textbfCraftextbfTing textbfRationatextbf (textbfCTRL) という新しいグラフ手法を提案する。
論文 参考訳(メタデータ) (2024-02-07T14:49:10Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Heterogeneous Graph Sparsification for Efficient Representation Learning [15.075580975708654]
本研究では,スパーシファイアを構築するためのサンプリングベースアルゴリズムを開発し,元のグラフにおける重要な情報を確実に疎外し,保存する。
我々は,提案手法が表現学習の時間と空間の複雑さを向上すると同時に,その後のグラフ学習タスクにおいて同等あるいはさらに優れた性能を達成できることを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-11-14T16:47:06Z) - ARIEL: Adversarial Graph Contrastive Learning [51.14695794459399]
ARIELは、ノードレベルとグラフレベルの両方の分類タスクにおいて、現在のグラフコントラスト学習法よりも一貫して優れている。
ARIELは敵の攻撃に対してより堅牢である。
論文 参考訳(メタデータ) (2022-08-15T01:24:42Z) - Principle of Relevant Information for Graph Sparsification [27.54740921723433]
グラフスペーシフィケーションは、グラフの構造的特性を維持しながら、グラフのエッジ数を減らすことを目的としている。
我々は、関係情報原理(PRI)から着想を得て、グラフスカラー化の汎用的で効果的な情報理論の定式化を提案する。
本稿では,グラフスペーシフィケーション,グラフ正規化マルチタスク学習,医用画像由来の脳ネットワーク分類の3つの応用例を示す。
論文 参考訳(メタデータ) (2022-05-31T21:00:42Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Diversified Multiscale Graph Learning with Graph Self-Correction [55.43696999424127]
2つのコア成分を組み込んだ多次元グラフ学習モデルを提案します。
情報埋め込みグラフを生成するグラフ自己補正(GSC)機構、および入力グラフの包括的な特性評価を達成するために多様性ブースト正規化(DBR)。
一般的なグラフ分類ベンチマークの実験は、提案されたGSCメカニズムが最先端のグラフプーリング方法よりも大幅に改善されることを示しています。
論文 参考訳(メタデータ) (2021-03-17T16:22:24Z) - Model-Agnostic Graph Regularization for Few-Shot Learning [60.64531995451357]
グラフ組み込み数ショット学習に関する包括的な研究を紹介します。
本稿では,ラベル間のグラフ情報の組み込みによる影響をより深く理解できるグラフ正規化手法を提案する。
提案手法は,Mini-ImageNetで最大2%,ImageNet-FSで6.7%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-02-14T05:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。