論文の概要: BeGin: Extensive Benchmark Scenarios and An Easy-to-use Framework for Graph Continual Learning
- arxiv url: http://arxiv.org/abs/2211.14568v5
- Date: Wed, 30 Oct 2024 06:37:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:24:40.712180
- Title: BeGin: Extensive Benchmark Scenarios and An Easy-to-use Framework for Graph Continual Learning
- Title(参考訳): BeGin: 大規模なベンチマークシナリオとグラフ連続学習のための使いやすいフレームワーク
- Authors: Jihoon Ko, Shinhwan Kang, Taehyung Kwon, Heechan Moon, Kijung Shin,
- Abstract要約: 連続学習(英: Continual Learning, CL)とは、絶え間なく一連のタスクを学習する過程である。
グラフデータ(グラフCL)は、標準的な実験的な設定が欠如しているため、比較的過小評価されている。
我々は,グラフCLのための容易かつ愚かなフレームワークであるBeGinを開発した。
- 参考スコア(独自算出の注目度): 18.32208249344985
- License:
- Abstract: Continual Learning (CL) is the process of learning ceaselessly a sequence of tasks. Most existing CL methods deal with independent data (e.g., images and text) for which many benchmark frameworks and results under standard experimental settings are available. Compared to them, however, CL methods for graph data (graph CL) are relatively underexplored because of (a) the lack of standard experimental settings, especially regarding how to deal with the dependency between instances, (b) the lack of benchmark datasets and scenarios, and (c) high complexity in implementation and evaluation due to the dependency. In this paper, regarding (a) we define four standard incremental settings (task-, class-, domain-, and time-incremental) for node-, link-, and graph-level problems, extending the previously explored scope. Regarding (b), we provide 35 benchmark scenarios based on 24 real-world graphs. Regarding (c), we develop BeGin, an easy and fool-proof framework for graph CL. BeGin is easily extended since it is modularized with reusable modules for data processing, algorithm design, and evaluation. Especially, the evaluation module is completely separated from user code to eliminate potential mistakes. Regarding benchmark results, we cover 3x more combinations of incremental settings and levels of problems than the latest benchmark. All assets for the benchmark framework are publicly available at https://github.com/ShinhwanKang/BeGin.
- Abstract(参考訳): 連続学習(英: Continual Learning, CL)とは、絶え間なく一連のタスクを学習する過程である。
ほとんどの既存のCLメソッドは独立したデータ(画像やテキストなど)を扱うが、標準の実験環境下で多くのベンチマークフレームワークや結果が利用可能である。
しかし、グラフデータ(グラフCL)のCL法は、それらと比較すると、相対的に未探索である。
(a) 標準の実験的な設定の欠如、特にインスタンス間の依存関係の扱い方について。
b) ベンチマークデータセットとシナリオの欠如
(c) 依存性による実装と評価の複雑さが高い。
本稿では,
a) ノード、リンク、グラフレベルの問題に対する4つの標準インクリメンタル設定(タスク、クラス、ドメイン、時間インクリメンタル)を定義し、これまで検討されていたスコープを拡張します。
周辺
b) 実世界の24のグラフに基づいて35のベンチマークシナリオを提供する。
周辺
(c)、グラフCLのための容易でばかばかしいフレームワークであるBeGinを開発する。
BeGinはデータ処理、アルゴリズム設計、評価のための再利用可能なモジュールでモジュール化されているため、容易に拡張できる。
特に、評価モジュールはユーザコードから完全に分離され、潜在的なミスを排除します。
ベンチマーク結果に関しては、最新のベンチマークよりも、インクリメンタルな設定と問題レベルの組み合わせが3倍に増えています。
ベンチマークフレームワークのすべての資産はhttps://github.com/ShinhwanKang/BeGin.comで公開されている。
関連論文リスト
- GLBench: A Comprehensive Benchmark for Graph with Large Language Models [41.89444363336435]
GLBenchは、教師付きシナリオとゼロショットシナリオの両方でGraphLLMメソッドを評価するための最初の包括的なベンチマークである。
GLBenchはグラフニューラルネットワークのような従来のベースラインとともに、GraphLLMメソッドのさまざまなカテゴリを公平かつ徹底的に評価する。
論文 参考訳(メタデータ) (2024-07-10T08:20:47Z) - GC-Bench: An Open and Unified Benchmark for Graph Condensation [54.70801435138878]
我々は,グラフ凝縮の性能を解析するための総合的なグラフ凝縮ベンチマーク (GC-Bench) を開発した。
GC-Benchは、グラフ凝縮の特徴を以下の次元で体系的に研究している。
我々は,再現性のある研究を容易にするために,異なるGC手法を訓練し,評価するための簡易ライブラリを開発した。
論文 参考訳(メタデータ) (2024-06-30T07:47:34Z) - AGALE: A Graph-Aware Continual Learning Evaluation Framework [7.892731722253387]
シングルラベルノードとマルチラベルノードの両方に対応可能なグラフ認識評価フレームワークを開発した。
特に、新しいインクリメンタル設定を定義し、データセットに適したアルゴリズムを考案する。
理論的にアガレを解析し、比較手法の性能におけるホモフィリーの役割について新たな知見を提供する。
論文 参考訳(メタデータ) (2024-06-03T11:50:47Z) - How to Prune Your Language Model: Recovering Accuracy on the "Sparsity
May Cry'' Benchmark [60.72725673114168]
下流データセットの微調整中における正確なBERTプルーニングの問題を再考する。
そこで我々は,SMCベンチマークの挑戦においても,プルーニングを成功させるための一般的なガイドラインを提案する。
論文 参考訳(メタデータ) (2023-12-21T03:11:30Z) - CARL-G: Clustering-Accelerated Representation Learning on Graphs [18.763104937800215]
本稿では,クラスタ検証指標(CVI)にインスパイアされた損失を利用したグラフ表現学習のための新しいクラスタリングベースのフレームワークを提案する。
CARL-Gはクラスタリング法やCVIに適応し,クラスタリング法とCVIの適切な選択により,CARL-Gは4/5データセットのノード分類ベースラインを最大79倍のトレーニングスピードアップで上回ることを示す。
論文 参考訳(メタデータ) (2023-06-12T08:14:42Z) - Towards Practical Few-Shot Query Sets: Transductive Minimum Description
Length Inference [0.0]
そこで本研究では,PrimAl Dual Minimum Description LEngth (PADDLE) の定式化について述べる。
制約のあるMDLライクな目的は、いくつかのタスクのデータに適合する有効なクラスのみを保ちながら、起こりうる多数のクラス間の競争を促進する。
論文 参考訳(メタデータ) (2022-10-26T08:06:57Z) - Unifying Graph Contrastive Learning with Flexible Contextual Scopes [57.86762576319638]
フレキシブルコンテキストスコープを用いたグラフコントラスト学習(略してUGCL)という自己教師型学習手法を提案する。
本アルゴリズムは,隣接行列のパワーを制御し,コンテキストスコープによるフレキシブルな文脈表現を構築する。
局所的スコープと文脈的スコープの両方の表現に基づいて、distLはグラフ表現学習のための非常に単純な対照的な損失関数を最適化する。
論文 参考訳(メタデータ) (2022-10-17T07:16:17Z) - The CLEAR Benchmark: Continual LEArning on Real-World Imagery [77.98377088698984]
連続学習(CL)は、生涯AIにとって重要な課題であると考えられている。
本稿では,視覚概念の自然な時間進化を伴う最初の連続画像分類ベンチマークであるCLEARを紹介する。
単純な教師なし事前学習のステップで、最先端のCLアルゴリズムがすでに強化されていることが分かりました。
論文 参考訳(メタデータ) (2022-01-17T09:09:09Z) - WRENCH: A Comprehensive Benchmark for Weak Supervision [66.82046201714766]
ベンチマークは、分類とシーケンスタグ付けのための22の異なる実世界のデータセットで構成されている。
ベンチマークプラットフォームとしての有効性を示すために、100以上のメソッドの変種に対して広範な比較を行うためにベンチマークを使用します。
論文 参考訳(メタデータ) (2021-09-23T13:47:16Z) - Structured Graph Learning for Clustering and Semi-supervised
Classification [74.35376212789132]
データの局所構造とグローバル構造の両方を保存するためのグラフ学習フレームワークを提案する。
本手法は, サンプルの自己表現性を利用して, 局所構造を尊重するために, 大域的構造と適応的隣接アプローチを捉える。
我々のモデルは、ある条件下でのカーネルk平均法とk平均法の組合せと等価である。
論文 参考訳(メタデータ) (2020-08-31T08:41:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。