論文の概要: BeGin: Extensive Benchmark Scenarios and An Easy-to-use Framework for
Graph Continual Learning
- arxiv url: http://arxiv.org/abs/2211.14568v3
- Date: Fri, 23 Feb 2024 00:24:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 18:44:57.890303
- Title: BeGin: Extensive Benchmark Scenarios and An Easy-to-use Framework for
Graph Continual Learning
- Title(参考訳): BeGin: 大規模なベンチマークシナリオとグラフ連続学習のための使いやすいフレームワーク
- Authors: Jihoon Ko, Shinhwan Kang, Taehyung Kwon, Heechan Moon, and Kijung Shin
- Abstract要約: 連続学習(英: Continual Learning, CL)とは、絶え間なく一連のタスクを学習する過程である。
グラフデータ(グラフCL)は、標準的な実験的な設定が欠如しているため、比較的過小評価されている。
我々は,グラフCLのための容易かつ愚かなフレームワークであるBeGinを開発した。
- 参考スコア(独自算出の注目度): 18.32208249344985
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Continual Learning (CL) is the process of learning ceaselessly a sequence of
tasks. Most existing CL methods deal with independent data (e.g., images and
text) for which many benchmark frameworks and results under standard
experimental settings are available. Compared to them, however, CL methods for
graph data (graph CL) are relatively underexplored because of (a) the lack of
standard experimental settings, especially regarding how to deal with the
dependency between instances, (b) the lack of benchmark datasets and scenarios,
and (c) high complexity in implementation and evaluation due to the dependency.
In this paper, regarding (a) we define four standard incremental settings
(task-, class-, domain-, and time-incremental) for node-, link-, and
graph-level problems, extending the previously explored scope. Regarding (b),
we provide 31 benchmark scenarios based on 20 real-world graphs. Regarding (c),
we develop BeGin, an easy and fool-proof framework for graph CL. BeGin is
easily extended since it is modularized with reusable modules for data
processing, algorithm design, and evaluation. Especially, the evaluation module
is completely separated from user code to eliminate potential mistakes.
Regarding benchmark results, we cover 3X more combinations of incremental
settings and levels of problems than the latest benchmark. All assets for the
benchmark framework are publicly available at
https://github.com/ShinhwanKang/BeGin.
- Abstract(参考訳): 連続学習(continual learning、cl)は、タスクのシーケンスを無停止に学習するプロセスである。
ほとんどの既存のCLメソッドは独立したデータ(画像やテキストなど)を扱うが、標準の実験環境下で多くのベンチマークフレームワークや結果が利用可能である。
しかし、グラフデータ(グラフCL)のCL法は、それらと比較して、比較的未探索である。
(a) 標準の実験的な設定の欠如、特にインスタンス間の依存関係の扱い方について。
b) ベンチマークデータセットとシナリオの欠如
(c)依存性による実装と評価の複雑さが高い。
本稿では,
(a)ノード、リンク、グラフレベルの問題の4つの標準的なインクリメンタル設定(task-、class-、domain-、time-incremental)を定義し、前述のスコープを拡張した。
周辺
(b)実世界の20のグラフに基づく31のベンチマークシナリオを提供する。
周辺
(c) グラフCLのための容易かつ愚かなフレームワークであるBeGinを開発した。
BeGinはデータ処理、アルゴリズム設計、評価のための再利用可能なモジュールでモジュール化されているため、容易に拡張できる。
特に評価モジュールはユーザコードから完全に分離され、潜在的なミスを排除します。
ベンチマーク結果に関しては、最新のベンチマークよりもインクリメンタルな設定と問題レベルの組み合わせを3倍にします。
ベンチマークフレームワークのすべての資産はhttps://github.com/ShinhwanKang/BeGin.comで公開されている。
関連論文リスト
- How to Prune Your Language Model: Recovering Accuracy on the "Sparsity
May Cry'' Benchmark [60.72725673114168]
下流データセットの微調整中における正確なBERTプルーニングの問題を再考する。
そこで我々は,SMCベンチマークの挑戦においても,プルーニングを成功させるための一般的なガイドラインを提案する。
論文 参考訳(メタデータ) (2023-12-21T03:11:30Z) - Density Distribution-based Learning Framework for Addressing Online
Continual Learning Challenges [4.715630709185073]
オンライン連続学習のための密度分布に基づく学習フレームワークを提案する。
我々のフレームワークは、より優れた平均精度と時間空間効率を実現する。
提案手法は, CL のアプローチにおいて, 有意な差で優れる。
論文 参考訳(メタデータ) (2023-11-22T09:21:28Z) - CARL-G: Clustering-Accelerated Representation Learning on Graphs [18.763104937800215]
本稿では,クラスタ検証指標(CVI)にインスパイアされた損失を利用したグラフ表現学習のための新しいクラスタリングベースのフレームワークを提案する。
CARL-Gはクラスタリング法やCVIに適応し,クラスタリング法とCVIの適切な選択により,CARL-Gは4/5データセットのノード分類ベースラインを最大79倍のトレーニングスピードアップで上回ることを示す。
論文 参考訳(メタデータ) (2023-06-12T08:14:42Z) - Computationally Budgeted Continual Learning: What Does Matter? [128.0827987414154]
CL (Continuous Learning) は、新しいデータに適応しながら、以前の知識を保存し、分布の異なる入力データのストリーム上でモデルを逐次訓練することを目的としている。
現在のCL文献では、以前のデータへのアクセス制限に焦点が当てられているが、トレーニングの計算予算に制約は課されていない。
本稿では,この問題を大規模ベンチマークで再検討し,計算制約条件下での従来のCL手法の性能解析を行う。
論文 参考訳(メタデータ) (2023-03-20T14:50:27Z) - Towards Practical Few-Shot Query Sets: Transductive Minimum Description
Length Inference [0.0]
そこで本研究では,PrimAl Dual Minimum Description LEngth (PADDLE) の定式化について述べる。
制約のあるMDLライクな目的は、いくつかのタスクのデータに適合する有効なクラスのみを保ちながら、起こりうる多数のクラス間の競争を促進する。
論文 参考訳(メタデータ) (2022-10-26T08:06:57Z) - Unifying Graph Contrastive Learning with Flexible Contextual Scopes [57.86762576319638]
フレキシブルコンテキストスコープを用いたグラフコントラスト学習(略してUGCL)という自己教師型学習手法を提案する。
本アルゴリズムは,隣接行列のパワーを制御し,コンテキストスコープによるフレキシブルな文脈表現を構築する。
局所的スコープと文脈的スコープの両方の表現に基づいて、distLはグラフ表現学習のための非常に単純な対照的な損失関数を最適化する。
論文 参考訳(メタデータ) (2022-10-17T07:16:17Z) - The CLEAR Benchmark: Continual LEArning on Real-World Imagery [77.98377088698984]
連続学習(CL)は、生涯AIにとって重要な課題であると考えられている。
本稿では,視覚概念の自然な時間進化を伴う最初の連続画像分類ベンチマークであるCLEARを紹介する。
単純な教師なし事前学習のステップで、最先端のCLアルゴリズムがすでに強化されていることが分かりました。
論文 参考訳(メタデータ) (2022-01-17T09:09:09Z) - WRENCH: A Comprehensive Benchmark for Weak Supervision [66.82046201714766]
ベンチマークは、分類とシーケンスタグ付けのための22の異なる実世界のデータセットで構成されている。
ベンチマークプラットフォームとしての有効性を示すために、100以上のメソッドの変種に対して広範な比較を行うためにベンチマークを使用します。
論文 参考訳(メタデータ) (2021-09-23T13:47:16Z) - Structured Graph Learning for Clustering and Semi-supervised
Classification [74.35376212789132]
データの局所構造とグローバル構造の両方を保存するためのグラフ学習フレームワークを提案する。
本手法は, サンプルの自己表現性を利用して, 局所構造を尊重するために, 大域的構造と適応的隣接アプローチを捉える。
我々のモデルは、ある条件下でのカーネルk平均法とk平均法の組合せと等価である。
論文 参考訳(メタデータ) (2020-08-31T08:41:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。