論文の概要: Graph Learning Indexer: A Contributor-Friendly and Metadata-Rich
Platform for Graph Learning Benchmarks
- arxiv url: http://arxiv.org/abs/2212.04537v1
- Date: Thu, 8 Dec 2022 19:57:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 15:40:11.153949
- Title: Graph Learning Indexer: A Contributor-Friendly and Metadata-Rich
Platform for Graph Learning Benchmarks
- Title(参考訳): Graph Learning Indexer: グラフ学習ベンチマークのためのコントリビュータフレンドリかつメタデータリッチなプラットフォーム
- Authors: Jiaqi Ma, Xingjian Zhang, Hezheng Fan, Jin Huang, Tianyue Li, Ting Wei
Li, Yiwen Tu, Chenshu Zhu, Qiaozhu Mei
- Abstract要約: Graph Learning Indexer(GLI)は、グラフ学習のためのベンチマークキュレーションプラットフォームである。
GLIは、Emphdatasetコントリビュータにインセンティブを与えるように設計されている。
GLIは、ベンチマークデータセットの単純なコレクションではなく、知識ベースをキュレートする。
- 参考スコア(独自算出の注目度): 11.972121836128592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Establishing open and general benchmarks has been a critical driving force
behind the success of modern machine learning techniques. As machine learning
is being applied to broader domains and tasks, there is a need to establish
richer and more diverse benchmarks to better reflect the reality of the
application scenarios. Graph learning is an emerging field of machine learning
that urgently needs more and better benchmarks. To accommodate the need, we
introduce Graph Learning Indexer (GLI), a benchmark curation platform for graph
learning. In comparison to existing graph learning benchmark libraries, GLI
highlights two novel design objectives. First, GLI is designed to incentivize
\emph{dataset contributors}. In particular, we incorporate various measures to
minimize the effort of contributing and maintaining a dataset, increase the
usability of the contributed dataset, as well as encourage attributions to
different contributors of the dataset. Second, GLI is designed to curate a
knowledge base, instead of a plain collection, of benchmark datasets. We use
multiple sources of meta information to augment the benchmark datasets with
\emph{rich characteristics}, so that they can be easily selected and used in
downstream research or development. The source code of GLI is available at
\url{https://github.com/Graph-Learning-Benchmarks/gli}.
- Abstract(参考訳): オープンで一般的なベンチマークを確立することは、現代の機械学習技術の成功を後押しする重要な要因だ。
機械学習が幅広いドメインやタスクに適用されているため、アプリケーションシナリオの現実をよりよく反映するために、よりリッチで多様なベンチマークを確立する必要がある。
グラフ学習は、より高速なベンチマークを必要とする機械学習の新興分野である。
このニーズに対応するために,グラフ学習のためのベンチマークキュレーションプラットフォームであるgraph learning indexer(gli)を紹介する。
既存のグラフ学習ベンチマークライブラリと比較して、gliは2つの新しい設計目標を強調している。
まず GLI は \emph{dataset コントリビュータにインセンティブを与えるように設計されている。
特に、データセットのコントリビューションとメンテナンスの労力を最小限に抑え、コントリビューションされたデータセットのユーザビリティを高め、データセットのさまざまなコントリビュータへの貢献を促進するために、さまざまな手段を取り入れています。
第2に、GLIは、ベンチマークデータセットの単純なコレクションではなく、知識ベースをキュレートするように設計されている。
複数のメタ情報ソースを使用してベンチマークデータセットを \emph{rich characteristics} で拡張し、下流の研究や開発で容易に選択および使用できるようにします。
GLIのソースコードは \url{https://github.com/Graph-Learning-Benchmarks/gli} で公開されている。
関連論文リスト
- How Do Large Language Models Understand Graph Patterns? A Benchmark for Graph Pattern Comprehension [53.6373473053431]
この研究は、グラフパターンタスクにおける大規模言語モデルの能力を評価するためのベンチマークを導入する。
我々は,LLMが用語的記述と位相的記述の両方に基づいて,グラフパターンを理解できるかどうかを評価するベンチマークを開発した。
私たちのベンチマークでは、合成データセットと実際のデータセットの両方と、11のタスクと7のモデルで構成されています。
論文 参考訳(メタデータ) (2024-10-04T04:48:33Z) - Can Large Language Models Analyze Graphs like Professionals? A Benchmark, Datasets and Models [90.98855064914379]
グラフを処理するために,大規模言語モデル(LLM)のベンチマークであるProGraphを導入する。
その結果,現在のLCMの性能は不満足であり,最高のモデルでは36%の精度しか達成できないことがわかった。
本研究では,6つの広く使用されているグラフライブラリに基づいて,クローリングされたドキュメントと自動生成コードを含むLLM4Graphデータセットを提案する。
論文 参考訳(メタデータ) (2024-09-29T11:38:45Z) - Large Language Models on Graphs: A Comprehensive Survey [77.16803297418201]
グラフ上の大規模言語モデルに関連するシナリオとテクニックを体系的にレビューする。
まず,LLMをグラフに適用する可能性シナリオを,純グラフ,テキスト分散グラフ,テキストペアグラフの3つのカテゴリにまとめる。
本稿では,そのような手法の現実的な応用について論じ,オープンソースコードとベンチマークデータセットを要約する。
論文 参考訳(メタデータ) (2023-12-05T14:14:27Z) - GraphGPT: Graph Instruction Tuning for Large Language Models [27.036935149004726]
グラフニューラルネットワーク(GNN)は、グラフ構造を理解するために進化してきた。
堅牢性を高めるために、自己教師付き学習(SSL)はデータ拡張の重要なツールとなっている。
本研究は,ゼロショット学習環境におけるグラフモデルの一般化を推し進めることによって,この問題に対処する。
論文 参考訳(メタデータ) (2023-10-19T06:17:46Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Curriculum Graph Machine Learning: A Survey [51.89783017927647]
カリキュラムグラフ機械学習(Graph CL)は、グラフ機械学習とカリキュラム学習の強みを統合する。
本稿では,グラフCLのアプローチを概観し,最近の研究動向を概観する。
論文 参考訳(メタデータ) (2023-02-06T16:59:25Z) - A Framework for Large Scale Synthetic Graph Dataset Generation [2.248608623448951]
この研究は、データセットをプロダクションサイズのグラフにスケールするスケーラブルな合成グラフ生成ツールを提案する。
このツールは、研究者にリリース可能なプロプライエタリなデータセットから、一連のパラメトリックモデルを学ぶ。
一連のデータセットにまたがるフレームワークの一般化可能性を示す。
論文 参考訳(メタデータ) (2022-10-04T22:41:33Z) - Automated Graph Machine Learning: Approaches, Libraries, Benchmarks and Directions [58.220137936626315]
本稿では,グラフ機械学習の自動手法について論じる。
当社の専用かつ世界初のグラフ機械学習のためのオープンソースライブラリであるAutoGLを紹介します。
また、統一的で再現性があり、効率的な評価をサポートする調整されたベンチマークについて述べる。
論文 参考訳(メタデータ) (2022-01-04T18:31:31Z) - Graph Few-shot Class-incremental Learning [25.94168397283495]
新しいクラスを段階的に学習する能力は、すべての現実世界の人工知能システムにとって不可欠である。
本稿では,グラフFCL(Graph Few-shot Class-incremental)問題について検討する。
基本クラスから繰り返しタスクをサンプリングすることでグラフ擬似インクリメンタルラーニングパラダイムを提案する。
本稿では,タスクレベルの注意とノードクラスのプロトタイプから計算したタスク依存型正規化器について述べる。
論文 参考訳(メタデータ) (2021-12-23T19:46:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。